Ciro Natale Controlli Automatici PDF [PDF]

  • 0 0 0
  • Gefällt Ihnen dieses papier und der download? Sie können Ihre eigene PDF-Datei in wenigen Minuten kostenlos online veröffentlichen! Anmelden
Datei wird geladen, bitte warten...
Zitiervorschau

Analisi dei Sistemi

Dispense per i Corsi di Laurea in Ingegneria Elettronica e Ingegneria Informatica Ciro Natale

Ciro Natale

Analisi dei Sistemi Dispense per i Corsi di Laurea in Ingegneria Elettronica e Ingegneria Informatica

Questo testo `e la raccolta delle lezioni tenute dall’autore al secondo anno dei corsi di Laurea in Ingegneria Elettronica e Ingegneria Informatica presso la Facolt` a di Ingegneria della Seconda Universit` a degli Studi di Napoli. Il testo `e stato composto interamente dall’autore in LATEX.

Prefazione La conoscenza non pu` o derivare dall’esperienza sola, ma occorre il paragone fra ci` o che lo spirito umano ha concepito e ci` o che ha osservato. (A. Einstein)

L’insegnamento di Analisi dei Sistemi intende fornire allo studente gli strumenti e le metodologie per la caratterizzazione dei sistemi dinamici lineari e lo studio delle loro propriet` a strutturali. Esso si colloca nell’ambito delle discipline dell’ingegneria che costituiscono il settore scientifico disciplinare chiamato Automatica. Nel nuovo assetto degli studi della Facolt` a di Ingegneria della Seconda Universit`a degli Studi di Napoli, l’insegnamento di Analisi dei Sistemi risulter` a il primo modulo fra quelli del settore dell’Automatica, ed `e posto, insieme a quello di Controlli Automatici, al secondo anno del corso degli studi fra gli insegnamenti che caratterizzano le classi di Ingegneria Elettronica ed Informatica. Nella classe di Ingegneria Informatica `e inserito un orientamento di Automazione Industriale in cui sono previsti gli insegnamenti di Tecnologie dei Sistemi di Controllo, Controlli Automatici II ed Azionamenti ed Elettronica Industriale del settore scientifico disciplinare Automatica. Tali insegnamenti, congiuntamente all’uso delle tecnologie informatiche, consentiranno al laureato in Ingegneria Informatica con orientamento Automazione Industriale di operare su impianti automatizzati. Impianti automatizzati sono presenti in ogni ambiente industriale: meccanico, aeronautico, automobilistico, manifatturiero, chimico, ovvero in ogni ambiente in cui il governo di un determinato processo per ottenere una risposta desiderata o una produzione di beni viene effettuata senza il diretto intervento dell’uomo. Si pu` o, quindi, affermare che il compito dell’ingegnere dell’automazione `e quello di comprendere e governare processi naturali o artificiali allo scopo di fornire prodotti utili alla societ` a. Poich´e il primo passo `e quello di comprendere e descrivere un processo naturale, un impianto o in termini del tutto generali un sistema, l’insegnamento di Analisi dei Sistemi fornir` a allo studente gli strumenti operativi necessari per la modellazione, la descrizione delle propriet` a e l’individuazione delle informazioni utili per il governo di un sistema. G. De Maria i

Indice

1 Modellistica dei sistemi dinamici

1

1.1

Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1

1.2

Elementi di modellistica di sistemi dinamici . . . . . . . . . . . . .

7

1.2.1

Modellistica dei sistemi elementari . . . . . . . . . . . . . .

8

1.2.2

Determinazione delle equazioni del modello dinamico . . . . 13

1.3

La rappresentazione ingresso–stato–uscita . . . . . . . . . . . . . . 20 1.3.1

Classificazione dei sistemi dinamici . . . . . . . . . . . . . . 22

1.4

I sistemi lineari tempo invarianti . . . . . . . . . . . . . . . . . . . 24 1.4.1 La rappresentazione ingresso–uscita . . . . . . . . . . . . . 26

1.5

Passaggi tra le forme di rappresentazione . . . . . . . . . . . . . . 28 1.5.1

Passaggio da i–s–u a i–u . . . . . . . . . . . . . . . . . . . . 28

1.5.2

Passaggio da i–u a i–s–u . . . . . . . . . . . . . . . . . . . . 29

1.6

Linearizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

1.7

Comandi MATLAB

1.8

Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

. . . . . . . . . . . . . . . . . . . . . . . . . . 41

2 Analisi dei sistemi a tempo continuo 2.1 2.2

45

La trasformata di Laplace . . . . . . . . . . . . . . . . . . . . . . . 45 Risposta dei sistemi lineari tempo invarianti . . . . . . . . . . . . . 54 2.2.1

Antitrasformazione delle funzioni razionali fratte . . . . . . 56 iii

iv

Indice

2.3 2.4

2.5 2.6 2.7 2.8 2.9

2.2.2 La funzione di trasferimento . . . . . . . . . 2.2.3 Poli e zeri dei sistemi LTI . . . . . . . . . . 2.2.4 L’evoluzione libera e i modi di evoluzione . 2.2.5 L’evoluzione forzata e la risposta impulsiva Schemi a blocchi . . . . . . . . . . . . . . . . . . . Stabilit` a dei sistemi dinamici . . . . . . . . . . . . 2.4.1 Stabilit` a BIBO o esterna . . . . . . . . . . 2.4.2 Stabilit` a sotto perturbazioni o interna . . . 2.4.3 Criterio di Routh . . . . . . . . . . . . . . . Risposta a regime permanente . . . . . . . . . . . . Risposta indiciale di sistemi del I e II ordine . . . . Il problema della realizzazione . . . . . . . . . . . . 2.7.1 Dallo schema a blocchi alla i–s–u . . . . . . Comandi MATLAB . . . . . . . . . . . . . . . . . Esercizi . . . . . . . . . . . . . . . . . . . . . . . .

3 Analisi dei sistemi a tempo discreto 3.1 Le equazioni alle differenze . . . . . . . . . . . . 3.1.1 Gli algoritmi . . . . . . . . . . . . . . . . 3.1.2 Processi intrinsecamente discreti . . . . . 3.1.3 La rappresentazione ingresso–stato–uscita 3.1.4 I sistemi a dati campionati . . . . . . . . 3.2 La trasformata Z . . . . . . . . . . . . . . . . . . 3.3 Risposta dei sistemi lineari tempo invarianti . . . 3.3.1 Metodi di antitrasformazione . . . . . . . 3.3.2 Modi di evoluzione . . . . . . . . . . . . . 3.4 Stabilit` a . . . . . . . . . . . . . . . . . . . . . . . 3.5 Comandi MATLAB . . . . . . . . . . . . . . . . 3.6 Esercizi . . . . . . . . . . . . . . . . . . . . . . . 4 Analisi dei sistemi nel dominio della frequenza 4.1 Serie di Fourier . . . . . . . . . . . . . . . . . . . 4.2 Trasformata di Fourier . . . . . . . . . . . . . . . 4.3 Risposta esponenziale . . . . . . . . . . . . . . . 4.4 Risposta sinusoidale . . . . . . . . . . . . . . . . 4.5 Risposta armonica di un sistema LTI . . . . . . .

. . . . . . . . . . . .

. . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . .

. . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . .

. . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . .

. . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . .

. . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . .

. . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . .

. . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . .

. . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

61 63 67 71 79 82 83 84 90 97 100 105 110 114 117

. . . . . . . . . . . .

125 . 125 . 128 . 128 . 130 . 133 . 136 . 140 . 143 . 147 . 148 . 151 . 152

. . . . .

155 . 155 . 159 . 164 . 166 . 170

Indice 4.6

4.7 4.8 4.9

v Diagrammi di Bode . . . . . . . . . . . . . . . . . . . . . . . 4.6.1 Tracciamento del diagramma asintotico dei moduli. . 4.6.2 Tracciamento del diagramma asintotico delle fasi. . . Cenni sui sistemi a tempo discreto . . . . . . . . . . . . . . Comandi MATLAB . . . . . . . . . . . . . . . . . . . . . . Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . .

. . . . . .

. . . . . .

Bibliografia A Numeri complessi A.1 Definizione di numero complesso . . . . . . . . A.2 Operazioni tra numeri complessi . . . . . . . . A.3 Forma trigonometrica di un numero complesso A.4 Forma esponenziale di un numero complesso . .

. . . . . .

178 185 186 188 189 190 192

. . . .

. . . .

. . . .

. . . .

B Elementi di algebra delle matrici B.1 Matrici e vettori . . . . . . . . . . . . . . . . . . . . . B.2 Somma, differenza e prodotto per uno scalare . . . . . B.3 Prodotto di matrici . . . . . . . . . . . . . . . . . . . . B.4 Trasposizione . . . . . . . . . . . . . . . . . . . . . . . B.5 Determinante . . . . . . . . . . . . . . . . . . . . . . . B.6 Rango . . . . . . . . . . . . . . . . . . . . . . . . . . . B.7 Inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . B.8 Polinomio caratteristico e teorema di Cayley–Hamilton B.9 Autovalori e autovettori . . . . . . . . . . . . . . . . . B.10 Matrici simili e diagonalizzazione . . . . . . . . . . . . B.11 Funzioni di matrici e operazioni differenziali . . . . . .

. . . .

. . . . . . . . . . .

. . . .

. . . . . . . . . . .

. . . .

. . . . . . . . . . .

. . . .

. . . . . . . . . . .

. . . .

. . . . . . . . . . .

. . . .

197 . 197 . 197 . 198 . 199

. . . . . . . . . . .

201 . 201 . 202 . 203 . 203 . 203 . 204 . 204 . 205 . 205 . 205 . 206

C Tabella di trasformate di Laplace

207

D Tabella di trasformate Z

209

Indice Analitico

211

CAPITOLO 1

Modellistica dei sistemi dinamici

1.1

Introduzione

Con il termine sistema, che deriva dal greco riunire - comporre, generalmente si intende un insieme di elementi materiali connessi e coordinati in modo da formare un complesso organico soggetto a determinate regole. Al termine sistema si fa seguire un aggettivo che caratterizza l’insieme di elementi, ad esempio in medicina parliamo di sistema immunitario, sistema circolatorio; in astronomia di sistema solare; in economia di sistema monetario, sistema economico nazionale. Nel campo dell’ingegneria lo studente diventer` a familiare con la terminologia sistema meccanico, sistema elettrico, sistema di elaborazione delle informazioni, a seconda che le grandezze fisiche implicate siano meccaniche, elettriche oppure informazioni numeriche o alfanumeriche, intendendo con ci` o un complesso di apparati interconnessi in cui si individua una relazione causa/effetto. Con il termine causa si intende la sollecitazione (ingresso o variabile di governo) imposta al sistema, mentre con il termine effetto il prodotto (uscita o variabile di uscita) generato dal sistema conseguentemente alla sollecitazione imposta. Ad esempio, consideriamo un sistema meccanico costituito da una trave fissata ad un’estremit` a (vedi Fig. 1.1) e supponiamo di caricare l’estremit` a libera con forze costanti di entit` a crescente pari a F1 , F2 , . . ., che individueremo come causa o ingresso. Se dopo l’applicazione della forza Fi si aspetta che la trave si fermi e si misura, all’equilibrio, lo spostamento yi , che individueremo come effetto o uscita, dell’estremit` a libera rispetto alla posizione in assenza di sollecitazione, e si ripor1

2

Capitolo 1. Modellistica dei sistemi dinamici xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx

F

y x

Figura 1.1: Esempio di sistema meccanico: trave incastrata tano sull’ascissa di un diagramma i valori delle forze applicate e sull’ordinata i valori degli spostamenti dell’estremit` a libera in corrispondenza delle forze applicate si pu` o verificare che i punti del piano individuati dalle suddette coordinate giacciono su un segmento –ci` o si verifica solo nell’ambito della validit` a della legge di Hooke– ci` o significa che le variabili di ingresso e di uscita sono legate da una relazione causa/effetto del tipo y = kF . Tale relazione non fornisce informazioni riguardo al movimento y = y(t) che l’estremit` a libera della trave compie nel passare da uno spostamento di equilibrio yi ad un altro yj per effetto della variazione del valore di forza applicata da Fi a Fj , ma una relazione causa/effetto, in condizioni di equilibrio, che descrive il fenomeno dello spostamento dell’estremit` a libera di una trave soggetta a carichi costanti. Chiameremo tale relazione modello statico del sistema trave. Se siamo interessati al movimento che l’estremit` a libera della trave compie nel raggiungere un punto di equilibrio partendo da un’assegnata posizione iniziale y(t0 ) con velocit` a iniziale nulla, possiamo registrare, ad esempio con uno strumento ottico, la posizione y in ogni istante di tempo t, dall’istante t0 di applicazione della forza F fino a quello in cui possiamo ritenere che essa ha raggiunto la posizione di equilibrio, e riportarla su un diagramma y verso t (vedi Fig. 1.2). Ripetendo tale esperimento per diverse posizioni iniziali y(t0 ) –dovute a sollecitazioni precedenti all’applicazione della forza F attuale– sempre con velocit` a iniziale nulla, si osservano movimenti differenti dell’estremit` a libera, pur raggiungendo essa la stessa posizione di equilibrio individuata dal modello statico. Il movimento, quindi, contiene informazioni sulla storia passata –espresse nelle condizioni iniziali– del sistema. Supponendo di collezionare in una banca dati tutti i movimenti generati a partire da qualsiasi y(t0 ), appartenente ad un insieme definito di condizioni iniziali, e da F , appartenente ad un insieme definito di sollecitazioni ammissibili per il sistema, potremmo affermare che tale banca dati costituisce un modello dinamico della trave fissata ad un’estremit` a soggetta a carichi costanti all’estremit`a libera, a cui si `e fatto riferimento nell’esperimento considerato, con posizione

1.1. Introduzione

3 y

t0

t

Figura 1.2: Movimenti misurati della trave a iniziale nulla. Si noti che qualsivoglia movimento, nelle iniziale y(t0 ) e velocit` suddette condizioni iniziali pu` o essere ottenuto dalla banca dati accedendo ad essa con la coppia di dati (y(t0 ), F ). Si comprende facilmente che tale approccio `e inapplicabile, per l’ovvio motivo della non realizzabilit` a, e poco utile, per mancanza di generalit` a, sia perch´e ricavato in particolari condizioni, velocit` a iniziale nulla dell’estremit` a libera, sia perch´e riferito alla specifica trave, con assegnata geometria e massa, per cui si `e effettuato l’esperimento. Per ottenere il modello dinamico del sistema considerato che descriva il movimento y = y(t) in modo del tutto generale, ovvero un modello che tenga conto della geometria e della massa della trave in forma parametrica, quindi valido per tutte le travi incastrate ad ˙ 0 ) –posizione e velocit` a un’estremit` a, e per generiche condizioni iniziali y(t0 ) e y(t iniziale dell’estremit` a libera– bisogna abbandonare l’approccio puramente sperimentale, descritto precedentemente, e ricorrere alle leggi della fisica ed in questo caso a quelle che descrivono il comportamento dei mezzi continui. Tale approccio conduce alla formulazione del modello dinamico in termini di un’equazione differenziale alle derivate parziali con annesse equazioni differenziali ordinarie che tengono conto delle condizioni al contorno. Tale formulazione risulta essere completa nel senso che descrive il movimento e la condizione di equilibrio, quindi contiene in s´e anche il modello statico, dell’estremit` a libera dell’insieme di tutte le travi incastrate ad un’estremit` a "

#

∂2 ∂ 2 y(x, t) ∂ 2 y(x, t) EI(x) + m(x) = F (x, t) ∂ x2 ∂ x2 ∂ t2 con le condizioni al contorno y(0, t) = 0,



∂y = 0, ∂ x x=0



∂ 2 y EI =0, ∂ x2 x=L

4

Capitolo 1. Modellistica dei sistemi dinamici causa o sollecitazione

S

effetto o uscita

Figura 1.3: Sistema astratto orientato

dove y(x, t) `e la deflessione all’ascissa x, E `e il modulo di Young, I(x) `e il momento di inerzia della sezione all’ascissa x ed F (x, t) `e la forza applicata all’ascissa x. All’ente matematico su descritto, descrivendo esso in forma completa il sistema meccanico considerato, si d` a ancora il nome di sistema, intendendo con ci` o che, dal punto di vista dell’analisi del comportamento, `e indifferente possedere del sistema in considerazione la sua struttura o la sua descrizione matematica. Per affermare che la seconda descrive non una struttura particolare, ma tutto un insieme, ad essa si da il nome di sistema astratto orientato. Tale ente si rappresenta graficamente come in Fig. 1.3, cio`e tramite uno schema a blocchi, dove la lettera S sta per sistema dinamico. Il verso delle frecce in tale schema chiarisce l’uso dell’aggettivo orientato, nel senso che mette in evidenza che la causa `e una sollecitazione sul sistema da parte dell’ambiente in cui `e immerso, quindi entrante, e l’effetto o uscita `e una variabile fisica a disposizione dell’ambiente per l’osservazione, quindi uscente. Tale approccio alla modellazione dinamica del sistema meccanico presentato risulta sconosciuto allo studente che ha seguito, per quanto riguarda la disciplina della meccanica, un solo modulo di fisica nel quale ha affrontato il problema del moto di un punto materiale o di un corpo rigido nello spazio; in particolare tale lettore, pur conoscendo il concetto di lavoro, non conosce il principio dei lavori virtuali e quello di D’Alembert che consentono di giungere alla formulazione del modello dinamico dell’oggetto in considerazione. Sembra evidente che per operare la sostituzione, nella rappresentazione di un sistema dinamico, della sua struttura fisica disponibile per l’osservazione del comportamento mediante sperimentazione nelle condizioni di interesse, con il suo modello matematico, che consente un’osservazione virtuale mediante simulazione al calcolatore, occorre che esso descriva in dettaglio il sistema dinamico in considerazione e le sue interazioni con altri sistemi dinamici, ad esempio l’ambiente in cui esso `e immerso. Tale approccio `e seguito dai fisici, con l’obiettivo dello studio di dettaglio del comportamento dei sistemi dinamici mediante simulazione, o da coloro che hanno quale obiettivo la realizzazione di un apparato e, quindi, hanno bisogno di simulare se ci` o che `e stato progettato soddisfa le specifiche imposte. Si pensi, per esempio, alla realizzazione di un aereo, per giungere ad essa si passa attraverso l’assegnazione di specifiche preliminari quali la destinazione d’uso –militare o civile–, masse da trasportare, numero di Mach, altitudine. Tali specifiche vengono poi tradotte da esperti ingegneri aeronautici in specifiche geometriche, aerodinamiche e struttu-

1.1. Introduzione

5 yn

t0

t

Figura 1.4: Moto desiderato per la trave rali che consentono di effettuare il progetto dell’aereo. Tutta la fase progettuale `e rivolta alla costruzione di modelli matematici di dettaglio, prove di laboratorio per la validazione dei modelli e simulazioni al calcolatore, che conducono alla generazione del modello dinamico dell’aereo in interazione con l’ambiente in cui sar` a immerso o ci` o che viene chiamato codice di simulazione di dettaglio. Obiettivo di coloro che si occupano di controlli automatici, disciplina per cui quella di analisi dei sistemi `e propedeutica, `e quello di progettare sistemi di governo, cio`e sistemi che siano in grado di generare le opportune sollecitazioni al sistema dinamico da governare affinch´e l’uscita segua un movimento assegnato. Ci` o che, quindi, `e assegnato come dato del problema `e il movimento dell’uscita e ci` o che deve essere determinato `e la sollecitazione che `e in grado di produrre tale movimento. Tale problema risulta essere l’inverso di quello citato in precedenza con riferimento all’esempio della trave incastrata, ovvero si assegna la sollecitazione e si risolve l’equazione differenziale a derivate parziali, che ne rappresenta il modello dinamico, per ricercare la soluzione, cio`e il moto y = y(t). Per meglio chiarire l’obiettivo descritto, si ritorni all’esempio suddetto e si assegni a partire dalla condizione di riposo yn (t0 ) = 0, y˙ n (t0 ) = 0 il moto yn = yn (t), supposto ammissibile per il sistema in considerazione, come nel diagramma in Fig. 1.4, dove il pedice n sta ad indicare moto nominale assegnato. Ci` o che si vuole determinare `e la forza F = F (t) da applicare all’estremit` a libera per ottenere tale moto. L’uso del modello dinamico descritto precedentemente risulta essere di scarsa utilit` a a questo scopo per i seguenti motivi: a) anche se esso descrive in dettaglio il comportamento della trave incastrata, i valori dei parametri propri del sistema meccanico: massa, attriti, coefficienti elastici, geometria sono ricavati attraverso misure effettuate sulla struttura,

6

Capitolo 1. Modellistica dei sistemi dinamici quindi affetti da errori propri di misura, ed in particolare gli attriti ed i coefficienti elastici presentano la maggiore incertezza; b) nella determinazione del modello matematico si sono fatte ipotesi semplificative, quali ad esempio supporre che la massa sia uniformemente distribuita, l’incastro non sia cedevole; ipotesi che consentono di assumere nota la deformazione della trave e descriverla mediante funzioni elementari note; c) si `e supposto che l’unica sollecitazione agente sul sistema sia quella applicata dall’operatore che effettua l’esperimento, ovvero si sono trascurate le sollecitazioni che l’ambiente, in cui `e immerso il sistema meccanico, esercita su di esso quali ad esempio l’azione del vento, vibrazioni della parete a cui la trave `e incastrata.

Queste considerazioni mettono in luce che se nell’equazione differenziale a derivate parziali operiamo le opportune sostituzioni partendo dalla conoscenza del moto nominale assegnato yn = yn (t), operazione peraltro non semplice, la sollecitazione Fn = Fn (t) che si ricava pu` o discostarsi anche molto dalla effettiva sollecitazione –non nota– F = F (t) che deve essere applicata al sistema reale affinch´e il moto effettivo y = y(t) segua quello nominale assegnato yn = yn (t). Ultima considerazione, ma non per questo di secondaria importanza, `e che il moto yn = yn (t) assegnato deve essere ammissibile per il sistema dinamico in considerazione, ovvero deve esistere una sollecitazione fisicamente realizzabile e di ampiezza ammissibile per il generatore di forza disponibile all’operatore che consente all’estremit` a libera di effettuare il moto. Tale condizione deve chiaramente essere verificata a priori mettendo in luce le propriet` a del sistema dinamico in considerazione, cosa molto ardua a partire dal modello dinamico di dettaglio a disposizione. Ci` o che sembra sensato, per ovviare agli inconvenienti descritti, `e far s`ı che la sollecitazione effettiva dipenda anche dallo scostamento che si verifica tra uscita effettiva e quella nominale assegnata in modo tale da ridurre tale scostamento. Per ottenere ci` o `e necessario, quindi disporre di organi di misura dello spostamento dell’estremit` a libera e confronto tra moto effettivo e moto nominale assegnato. Intuitivamente tale approccio `e rivolto a compensare gli effetti indesiderati derivanti dagli inconvenienti descritti. La strategia di governo descritta `e denominata controllo a ciclo chiuso in contrasto con quella precedente denominata controllo a ciclo aperto. Nel controllo a ciclo chiuso, quindi, la variabile di uscita e spesso non solo essa, ma anche variabili interne –che nel seguito denoteremo come stato del sistema– contribuiscono alla sintesi della sollecitazione impressa al sistema dinamico. Seguendo tale approccio `e necessario seguire i seguenti passi: 1. verificare che il moto assegnato per l’uscita appartenga all’insieme dei moti ammissibili per il sistema dinamico in considerazione; 2. determinare quali variabili fisiche proprie del sistema dinamico devono contribuire alla generazione dell’appropriata sollecitazione;

1.2. Elementi di modellistica di sistemi dinamici

7

3. verificare che tali variabili fisiche siano disponibili per effettuare misure o se mediante osservazioni sull’uscita `e possibile ricostruire tali variabili; 4. operare la sintesi della sollecitazione. I passi citati richiedono la disponibilit` a di un modello dinamico del sistema in esame che sia “trattabile” ovvero un modello per cui sia semplice evidenziare le propriet` a strutturali ed operare la sintesi della sollecitazione. A tale scopo non `e, quindi, utile utilizzare il modello di dettaglio, ma un modello matematico che approssimi bene la relazione causa/effetto del sistema reale in condizioni particolari di funzionamento, ovvero un modello semplificato per cui sia semplice evidenziare le propriet` a strutturali e che possa essere utilizzato per la sintesi della sollecitazione. In particolare, nel caso della trave incastrata si ricorre ad un’approssimazione del sistema reale sostituendo ad esso un sistema virtuale costituito da n elementi rigidi connessi mediante giunti elastici con coefficienti di attrito predeterminati, in modo che il comportamento ingresso/uscita sia quanto pi` u vicino a quello reale; tale approssimazione, estremamente utile per l’analisi ed il controllo dei sistemi dinamici continui, `e denominata ad elementi finiti. Un tale approccio non `e argomento dell’insegnamento di Analisi dei Sistemi e sar` a affrontato in insegnamenti specifici nell’ambito della laurea specialistica. L’esempio della trave incastrata `e servito unicamente a mostrare come sia complicato porsi il problema del governo del comportamento di un sistema dinamico strutturalmente semplice.

1.2

Elementi di modellistica di sistemi dinamici

In questo paragrafo ci proponiamo di presentare una procedura sistematica per la determinazione del modello dinamico di un sistema. La procedura si basa innanzitutto sulla scomposizione del sistema in sistemi elementari o elementi, che vanno poi caratterizzati da un punto di vista energetico, e infine sulla scrittura di un sistema di equazioni differenziali, la cui soluzione descrive il comportamento del sistema nei limiti delle approssimazioni introdotte nelle prime due fasi. D’ora in avanti faremo riferimento a sistemi dinamici a dimensione finita, supponendo di poter rappresentare il sistema dinamico in esame mediante elementi discreti o parametri concentrati. In particolare, in questo corso, nonostante venga presentata una metodologia di modellazione abbastanza generale, affronteremo il problema della determinazione di un modello matematico solo per sistemi meccanici ed elettrici. Ci` o perch´e nell’ambito dell’ingegneria dell’automazione questi sono i principali sistemi che compongono sistemi pi` u complessi, mentre la modellistica di altri tipi di sistemi `e rimandata a corsi specialistici. I sistemi meccanici verranno rappresentati mediante masse, molle e smorzatori concentrati, i sistemi elettrici mediante resistori, condensatori ed induttori concentrati.

8

Capitolo 1. Modellistica dei sistemi dinamici

1.2.1

Modellistica dei sistemi elementari

Il comportamento dei sistemi meccanici ed elettrici elementari verr` a ora caratterizzato in termini di una relazione di equilibrio e di una relazione energetica. La prima serve a mettere in relazione le sollecitazioni (cause) applicate all’elemento con gli effetti prodotti da queste; la seconda serve ad esprimere le caratteristiche energetiche dell’elemento, ad esempio se `e un elemento che tende ad accumulare o a dissipare energia. Iniziamo a descrivere il comportamento dei sistemi meccanici elementari. Elementi di inerzia. Per elementi di inerzia si intendono masse e momenti di inerzia. L’inerzia pu` o essere definita come la variazione di forza (coppia) necessaria ad ottenere una variazione unitaria di accelerazione (accelerazione angolare) massa =

variazione di forza variazione di accelerazione





N = [kg] m/s2

variaz. di coppia momento di inerzia = variaz. di acceleraz. angolare





  N·m = kg·m2 2 rad/s

Un elemento di massa, se sottoposto all’applicazione di una forza f , reagisce con una forza proporzionale alla derivata della velocit` a ν, per cui vale la relazione di equilibrio “dinamico” (vedi Fig. 1 di Tab. 1.1) f −m

dν =0 dt

essendo la derivata prima della velocit` a rispetto al tempo pari all’accelerazione della massa stessa, ed avendo indicato con m la massa dell’elemento. Analogamente, un elemento di inerzia (rotazionale attorno ad un asse), sottoposto ad una coppia C, se ω `e la sua velocit` a angolare, reagisce con una coppia proporzionale alla derivata della velocit` a angolare, e quindi vale la relazione di equilibrio (vedi Fig. 2 di Tab. 1.1) dω C −J =0 dt essendo la derivata prima della velocit` a angolare rispetto al tempo pari all’accelerazione angolare dell’inerzia stessa, ed avendo indicato con J il momento di inerzia dell’elemento rispetto all’asse di rotazione. Da un punto di vista energetico, gli elementi di inerzia sono in grado di accumulare energia cinetica, cio`e la capacit` a di fare lavoro in virt` u della velocit` a che ad essi `e stata impressa. L’energia cinetica posseduta da una massa m che si muove con velocit` a ν vale1 1 T = mν 2 2 1

Con ν si `e indicato il modulo del vettore velocit` a.

1.2. Elementi di modellistica di sistemi dinamici

9

mentre, quella posseduta da un’inerzia rotazionale J che ruota con velocit` a 2 angolare ω vale 1 T = Jω 2 2 Va detto anche che, se una massa `e sottoposta all’attrazione gravitazionale terrestre, essa `e in grado di accumulare anche energia potenziale, cio`e la capacit` a di fare lavoro in virt` u della sua stessa posizione, o, pi` u precisamente, della sua altezza rispetto ad un livello di riferimento. In tal caso, l’energia potenziale di una massa m posta ad un’altezza h vale V = mgh dove g `e l’accelerazione di gravit` a che vale circa 9.81 m/s2 . Elementi elastici (molle). Una molla lineare `e un elemento meccanico privo di massa e di attrito che se deformato da una sollecitazione esterna `e tale che la deformazione risulta direttamente proporzionale alla sollecitazione. Nel caso di sollecitazioni in forza e deformazioni in traslazione, la molla `e detta molla traslatoria; se la sollecitazione `e in coppia e la deformazione `e in rotazione, la molla `e detta molla rotatoria o molla torsionale. Per le molle traslatorie (vedi Fig. 3 di Tab. 1.1) detto f il valore di forza applicata agli estremi e x1 e x2 le posizioni assunte dagli estremi misurate rispetto ad uno stesso riferimento, la forza con cui l’elemento reagisce risulta proporzionale alla deformazione, e perci` o vale la relazione di equilibrio f − k(x1 − x2 ) = 0 dove k `e una costante di proporzionalit` a caratteristica della molla, detta costante elastica o rigidezza della molla. Per le molle torsionali (vedi Fig. 4 di Tab. 1.1), detto C il valore della coppia applicata agli estremi, e dette α1 e α2 le posizioni degli estremi rispetto ad uno stesso riferimento, la coppia di reazione `e proporzionale alla deformazione angolare e la relazione di equilibrio `e C − k(α1 − α2 ) = 0 dove k `e la rigidezza torsionale della molla. Naturalmente, per le molle traslatorie, si ha   variazione di forza N rigidezza = variazione di spostamento m mentre, per le molle torsionali, si ha rigidezza torsionale = 2

variazione di coppia variazione angolare



N·m rad



La formula vale nel caso di un corpo rigido che ruota attorno ad uno degli assi principali di inerzia, nel caso pi` u generale andrebbe scritta considerando il tensore d’inerzia J del corpo e il vettore velocit` a angolare ω: T = 1/2ω T Jω.

10

Capitolo 1. Modellistica dei sistemi dinamici

Da un punto di vista energetico, le molle sono elementi in grado di accumulare solo energia potenziale. In particolare, per una molla traslatoria essa vale V =

1 k(x1 − x2 )2 2

mentre, per una molla torsionale, vale 1 V = k(α1 − α2 )2 2 Elementi di attrito (smorzatori). Uno smorzatore ideale `e un elemento, privo di massa e di elasticit` a, che, a differenza degli elementi di inerzia ed elastici che immagazzinano energia, dissipa energia sotto forma di calore. In uno smorzatore traslatorio, se si applica la forza f agli estremi, la reazione dell’elemento `e una forza proporzionale alla differenza di velocit`a degli estremi stessi, cio`e f − β(ν1 − ν2 ) = 0 dove la costante β `e detta coefficiente di attrito viscoso. Analogamente, uno smorzatore rotatorio reagisce all’applicazione di una coppia C ai suoi estremi con una coppia proporzionale alla differenza di velocit` a angolare degli estremi stessi, cio`e C − β(ω1 − ω2 ) = 0

dove la costante β `e detta coefficiente di attrito viscoso rotatorio. Le dimensioni dei coefficienti di attrito sono le seguenti coeff. attrito viscoso =

variazione di forza variazione di velocit` a



N m/s

variaz. di coppia coeff. attrito viscoso rotatorio = variaz. di velocit` a angolare

 

N·m rad/s



Da un punto di vista energetico gi` a si `e detto che l’elemento di attrito dissipa energia. In particolare, la funzione che tiene conto dell’energia dissipata, detta funzione di dissipazione di Rayleigh da uno smorzatore traslatorio con coefficiente di attrito viscoso β e differenza di velocit` a degli estremi ν1 − ν2 vale3 1 D = β(ν1 − ν2 )2 2 mentre, uno smorzatore rotatorio con coefficiente di attrito viscoso β e differenza di velocit` a angolare degli estremi ω1 − ω2 ha una funzione di dissipazione 1 D = β(ω1 − ω2 )2 2 3 Si noti che tale funzione ha le dimensioni di una potenza e non di un’energia, ma in ogni caso tiene conto degli effetti dissipativi.

1.2. Elementi di modellistica di sistemi dinamici

11

Passiamo ora alla modellistica dei sistemi elettrici elementari. Diciamo subito che si trover` a una piena corrispondenza tra elementi meccanici ed elementi elettrici, a patto di considerare al posto della velocit` a la corrente e al posto della forza la tensione, mentre il ruolo della posizione `e svolto dalla carica elettrica. Induttori. Un induttore `e un elemento elettrico ideale (privo di resistenza e capacit` a) che (vedi Fig. 1 di Tab. 1.2), ad una tensione v applicata ai suoi capi risponde con una tensione proporzionale alla derivata temporale della corrente che scorre nell’induttore secondo la relazione di equilibrio “dinamico” v−L

di =0 dt

dove L `e detta induttanza dell’induttore e si misura in Henry induttanza =

variazione di tensione variazione di corrente nell’unit` a di tempo





V = [H] A/s

Da un punto di vista energetico, un induttore `e capace di immagazzinare energia magnetica (che indicheremo ancora con il simbolo T dell’energia cinetica, vista l’analogia con l’elemento di massa), cio`e la capacit` a di svolgere un lavoro in virt` u della corrente elettrica che scorre in esso (ad esempio far girare un motore elettrico). L’energia immagazzinata da un induttore di induttanza L in cui scorre una corrente i `e pari a 1 T = Li2 2 Condensatore. Un condensatore `e un elemento elettrico ideale (privo di resistenza e induttanza) che (vedi Fig. 2 di Tab. 1.2) se sottoposto ad una tensione v `e in grado di accumulare una carica χ proporzionale alla tensione stessa secondo la relazione di equilibrio4 1 χ=0 C dove C `e detta capacit` a del condensatore e si misura in Farad v−

variazione di carica capacit` a= variazione di tensione





C = [F] V

Poich´e, nella pratica, nei sistemi con cui avremo a che fare le grandezze sono sempre variabili nel tempo, quello che `e di interesse in un sistema elettrico complesso non `e tanto la carica ma la corrente elettrica, cio`e la derivata temporale della carica, allora `e pi` u utile considerare la relazione di equilibrio delle correnti 4 Si noti l’analogia con l’elemento elastico, in cui alla posizione corrisponde la carica e alla rigidezza k corrisponde l’inverso della capacit` a 1/C.

12

Capitolo 1. Modellistica dei sistemi dinamici

che si ottiene derivando rispetto al tempo la relazione precedente e considerando che i = dχ/dt dv i−C =0 dt Un condensatore `e in grado di immagazzinare energia elettrostatica (che indicheremo ancora con il simbolo V usato per l’energia potenziale vista l’analogia con l’elemento elastico), cio`e la capacit` a di compiere un lavoro in virt` u della carica elettrica accumulata in esso (ad esempio accendere una lampadina). L’energia immagazzinata da un condensatore di capacit` a C dotato di carica χ e ai cui capi ci sia una tensione v `e data da V = Elemento

11 2 1 2 χ = Cv 2C 2

Equilibrio

Energia

ν f

M

xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

Massa

dν =0 dt

1 T = M ν2 2

C−J

dω =0 dt

1 T = Jω 2 2

C

ω J Inerzia k

f

x2

x1

Molla traslatoria α1 C

f −M

f − k(x1 − x2 ) = 0

V =

1 k(x1 − x2 )2 2

C − k(α1 − α2 ) = 0

V =

1 k(α1 − α2 )2 2

α2 k

Molla rotatoria

Tabella 1.1: Elementi costitutivi dei sistemi meccanici Resistore. Un resistore `e un componente elettrico ideale (privo di induttanza e capacit` a) che (vedi Fig. 3 di Tab. 1.2) ad una tensione v applicata ai suoi capi

1.2. Elementi di modellistica di sistemi dinamici

13

risponde con una tensione proporzionale alla corrente che scorre in esso, secondo la relazione di equilibrio5 v − Ri = 0 dove R `e detta resistenza del resistore e si misura in Ohm variazione di tensione resistenza = variazione di corrente





V = [Ω] A

Un resistore, analogamente ad uno smorzatore meccanico, dissipa energia elettromagnetica sotto forma di calore. In particolare, la funzione di dissipazione di Rayleigh per un resistore di resistenza R in cui scorre una corrente i vale 1 D = Ri2 2 Le caratteristiche dei sistemi meccanici elementari sono riassunte in Tab. 1.1, mentre quelle degli elementi elettrici sono riassunte in Tab. 1.2. In Tab. 1.3 sono riportate i sistemi elementari dissipativi elettrici e meccanici. Elemento

Equilibrio

Energia

di =0 dt

1 T = Li2 2

dv =0 dt

1 1 2 V = Cv 2 = χ 2 2C

L

i

v Induttore

v−L

C i v Condensatore

i−C

Tabella 1.2: Elementi costitutivi dei sistemi elettrici

1.2.2

Determinazione delle equazioni del modello dinamico

Nell’analizzare le caratteristiche dei sistemi elementari elettrici e meccanici `e emerso che alcuni elementi hanno la capacit` a di accumulare energia, questo significa che sono in qualche modo in grado di tenere memoria di quanto `e ad essi accaduto nel passato. Ci` o ci porta a introdurre il concetto di stato Lo stato di un sistema `e il minimo insieme di variabili, dette variabili di stato, che contiene sufficienti informazioni sulla storia passata del sistema per permetterci 5

Tale relazione `e nota anche come Legge di Ohm.

14

Capitolo 1. Modellistica dei sistemi dinamici Elemento

ts

β

f ν1

ν2

Smorzatore traslatorio ω2 β ω1 C

Smorzatore rotatorio i

Equilibrio

Funzione di dissipazione

f − β(ν1 − ν2 ) = 0

1 D = β(ν1 − ν2 )2 2

C − β(ω1 − ω2 ) = 0

D=

1 β(ω1 − ω2 )2 2

R v Resistore

1 D = Ri2 2

v − Ri = 0 Tabella 1.3: Elementi dissipativi xxxxxx xxxxxx xxxxxx xxxxxx xxxxxx xxxxxx xxxxxx xxxxxx xxxxxx xxxxxx xxxxxx xxxxxx xxxxxx xxxxxx xxxxxx xxxxxx xxxxxx xxxxxx xxxxxx xxxxxx xxxxxx xxxxxx xxxxxx xxxxxx xxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

x

k

M

Figura 1.5: Sistema massa-molla di calcolare tutti gli stati futuri del sistema, supponendo noti tutti gli ingressi futuri e le equazioni che descrivono il sistema. Strettamente legato a questo concetto `e quello di funzione di stato Una funzione di stato `e ogni funzione scalare delle variabili di stato e del tempo il cui valore ad ogni istante di tempo `e completamente determinato dai valori delle variabili di stato in quell’istante e dal tempo stesso. Funzioni di stato sono, ad esempio, l’energia cinetica e l’energia potenziale. Una funzione di stato che si rivela molto utile per la determinazione di modelli matematici di sistemi fisici reali `e la cosiddetta funzione di Lagrange o Lagrangiana. La Lagrangiana `e definita come la differenza fra l’energia cinetica totale T e l’energia potenziale totale V di un sistema.

Esempio 1.1 Si consideri il sistema massa-molla in Fig. 1.5. Tale sistema meccanico `e costituito da due elementi, un elemento di inerzia di massa M e un elemento elastico

1.2. Elementi di modellistica di sistemi dinamici

15

C

v

L i

Figura 1.6: Circuito elettrico LC (molla traslatoria) di costante elastica k. Come visto nel paragrafo precedente, il primo ha un’energia cinetica 1 T (x) ˙ = M x˙ 2 2 dove x `e la posizione della massa e quindi x˙ `e la sua velocit` a6 . La molla, invece, `e un elemento che accumula energia potenziale, che vale V (x) =

1 2 kx 2

La Lagrangiana di questo sistema `e allora 1 1 L(x, x) ˙ = T (x) ˙ − V (x) = M x˙ 2 − kx2 2 2

Vediamo un esempio di sistema elettrico.

Esempio 1.2 Si consideri il sistema elettrico in Fig. 1.6, dove v `e la tensione ai capi del condensatore di capacit` a C e i `e la corrente nell’induttore di induttanza L. Dalle relazioni in Tab. 1.2, si trova subito che l’energia cinetica totale del sistema `e 1 T (i) = Li2 2 mentre, ricordando che la carica del condensatore `e pari a χ = Cv, quella potenziale `e 1 2 V (χ) = χ 2C Nel seguito indicheremo con f˙(t) la derivata temporale di f (t), cio`e f˙(t) = n la derivata n−ma, cio`e f (n) (t) = ddtnf . 6

df dt

e con f (n) (t)

16

Capitolo 1. Modellistica dei sistemi dinamici

e quindi la Lagrangiana vale L(χ, i) = T (i) − V (χ) =

1 2 1 2 Li − χ 2 2C

Notiamo esplicitamente che la corrente i nell’induttore `e la stessa che circola nel condensatore e quindi `e pari alla derivata temporale della carica nel condensatore, quindi si ha i = χ˙ e la Lagrangiana diventa 1 2 1 L(χ, χ) ˙ = Lχ˙ 2 − χ 2 2C che formalmente `e identica a quella trovata per il sistema massa-molla. In generale, per un sistema meccanico, la Lagrangiana dipende da posizione e velocit` a degli elementi di inerzia, mentre per un sistema elettrico, dipende da correnti negli induttori e tensioni (o cariche) sui condensatori. Tali grandezze allora rappresentano le variabili di stato di un sistema elettro-meccanico. Vista la forte analogia tra sistemi meccanici ed elettrici messa in luce nei due esempi precedenti, `e possibile prescindere dal significato fisico delle variabili di stato, per cui `e conveniente adottare i simboli pi` u generici q e q, ˙ dove q non rappresenta necessariamente una coordinata cartesiana di posizione e q˙ non rappresenta necessariamente una velocit` a. Quello che si sta cercando di fare `e di generalizzare il concetto stesso di posizione e velocit` a di un sistema. Ricordiamo che per determinare la posizione nello spazio di un sistema di N punti materiali `e necessario assegnare 3N coordinate. In generale, il numero di grandezze indipendenti che si debbono assegnare per determinare univocamente la posizione di un sistema si chiama numero di gradi di libert` a del sistema. Si chiameranno coordinate generalizzate i valori assunti da tali variabili q1 , q2 , . . . , ql che caratterizzano la posizione del sistema. Con q˙1 , q˙2 , . . . , q˙l si indicheranno le derivate prime rispetto al tempo delle coordinate generalizzate, che rappresentano la generalizzazione del concetto di velocit` a. Dunque Le variabili di stato di un sistema generico sono costituite dall’insieme delle coordinate generalizzate e delle loro derivate prime rispetto al tempo. Una volta generalizzati i concetti di posizione e velocit` a `e possibile estendere a sistemi non meccanici anche il concetto di moto in un dato intervallo di tempo [ti , tf ]. Si chiama moto o movimento del sistema l’insieme dei valori assunti dalle coordinate generalizzate e dalle loro derivate prime rispetto al tempo nell’intervallo [ti , tf ], cio`e {qi (t), q˙i (t) : t ∈ [ti , tf ], i = 1, 2, . . . , l}. A questo punto non rimane che generalizzare le leggi del moto. A tale scopo faremo riferimento al Principio di Hamilton, secondo cui

1.2. Elementi di modellistica di sistemi dinamici

17

xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

y

k

u

M

β

Figura 1.7: Sistema massa-molla-smorzatore Proposizione 1.1 Dati due istanti di tempo t1 e t2 , se un sistema occupa posizioni determinate caratterizzate da due insiemi di valori delle coordinate generalizzate, allora il moto del sistema tra gli istanti t1 e t2 `e tale che l’integrale Z

t2

t1

"

L(q1 , . . . , ql , q˙1 , . . . , q˙l ) +

l X i=1

#

Fi qi dt

assume un valore estremo (minimo) lungo la traiettoria q = q(t) del moto. Con il simbolo Fi sono state indicate tutte e sole le forze generalizzate che agiscono sulle variabili generalizzate e che non derivano da un potenziale (non conservative)7 . Il principio di Hamilton, in altre parole, afferma che un sistema effettua moti che minimizzano una funzione dipendente dai vari tipi di energia che entrano in gioco nel sistema: cinetica, potenziale e fornita dall’esterno. Facendo uso del calcolo delle variazioni `e possibile determinare il minimo dell’integrale nel principio di Hamilton e quindi le equazioni che il moto di un sistema dinamico deve soddisfare. Tali equazioni sono dette di Eulero-Lagrange e sono costituite dal sistema di l equazioni differenziali ordinarie (dove l `e il numero di gradi di libert` a del sistema)8 d ∂L(q, q) ˙ ∂L(q, q) ˙ − = Fi , dt ∂ q˙i ∂qi

i = 1, . . . , l

(1.1)

valido nell’ipotesi che nel sistema non siano presenti elementi dissipativi. Se invece tali elementi sono presenti, le equazioni di Eulero-Lagrange diventano d ∂L(q, q) ˙ ∂L(q, q) ˙ ∂D(q) ˙ − + = Fi , dt ∂ q˙i ∂qi ∂ q˙i

i = 1, . . . , l

(1.2)

dove D(q) ˙ `e la funzione di dissipazione totale. 7`

E questo il motivo per cui la forza di attrazione gravitazionale (che `e conservativa!) `e stata considerata come sorgente di energia potenziale per una massa. 8 Nello scrivere le equazioni si `e indicato con q il vettore delle coordinate generalizzate.

18

Capitolo 1. Modellistica dei sistemi dinamici

Esempio 1.3 Dato il sistema meccanico in Fig. 1.7, in cui si individuano i tre elementi massa, molla e smorzatore (tutti traslatori) sottoposti alla forza u, vogliamo determinare le equazioni del suo modello dinamico. Il primo passo `e quello dell’individuazione delle coordinate generalizzate. Nel caso in esame `e chiaro che la posizione del sistema `e completamente individuata dalla posizione della massa M , quindi q = y. Le variabili di stato sono allora q e q. ˙ Il passo successivo `e quello della determinazione delle energie cinetica e potenziale totali oltre alla funzione di dissipazione totale. Applicando le relazioni in Tab. 1.1 e Tab. 1.3, si ha 1 T = M q˙2 , 2

1 V = kq 2 , 2

1 D = β q˙2 2

La funzione Lagrangiana vale dunque 1 1 L(q, q) ˙ = T − V = M q˙2 − kq 2 2 2 Calcoliamo ora i singoli termini che compaiono nell’equazione (1.2) ∂L(q, q) ˙ d ∂L(q, q) ˙ = M q˙ ⇒ = M q¨ ∂ q˙ dt ∂ q˙ ∂L(q, q) ˙ = −kq, ∂q

∂D(q) ˙ = β q˙ ∂ q˙

che sostituiti nell’equazione forniscono M q¨ + β q˙ + kq = u che `e un’equazione differenziale del secondo ordine lineare a coefficienti costanti9 . Vediamo anche un esempio di sistema elettrico.

Esempio 1.4 Dato il circuito elettrico in Fig. 1.8, in cui si individuano i tre elementi induttore, condensatore e resistore sottoposti alla tensione u, vogliamo determinare le equazioni del suo modello dinamico. Il primo passo `e quello dell’individuazione delle coordinate generalizzate. Ricordando che la “posizione in un circuito elettrico `e rappresentata dalla carica dei condensatori, si ha che q = χ. Le variabili di stato sono allora q e q. ˙ Osservando che q `e legata alla corrente nell’induttore da una relazione di derivata temporale (i = χ), ˙ si ritrova che la corrente in un induttore `e variabile di stato di un circuito elettrico. Il passo successivo `e quello della determinazione 9 Lo stesso risultato pu` o essere ottenuto anche applicando il secondo principio della dinamica e le relazioni di equilibrio per i tre elementi costituenti il sistema.

1.2. Elementi di modellistica di sistemi dinamici

19

C

R

v

L

u i

Figura 1.8: Circuito elettrico RLC delle energie cinetica e potenziale totali, oltre alla funzione di dissipazione totale. Applicando le relazioni energetiche di Tab. 1.2 e Tab. 1.3, si ha 1 T = Lq˙2 , 2

V =

1 2 q , 2C

1 D = Rq˙2 2

La funzione Lagrangiana vale dunque 1 2 1 q L(q, q) ˙ = T − V = Lq˙2 − 2 2C Calcoliamo ora i singoli termini che compaiono nell’equazione (1.2) ∂L(q, q) ˙ d ∂L(q, q) ˙ = Lq˙ ⇒ = L¨ q ∂ q˙ dt ∂ q˙ ∂L(q, q) ˙ 1 = − q, ∂q C

∂D(q) ˙ = Rq˙ ∂ q˙

che sostituiti nell’equazione forniscono L¨ q + Rq˙ +

1 q=u C

che `e ancora una volta un’equazione differenziale del secondo ordine lineare a coefficienti costanti perfettamente analoga a quella ottenuta per il sistema massa-mollasmorzatore. La stessa equazione avremmo potuto ottenerla semplicemente applicando i principi di Kirchhoff. Infatti, applicando il secondo principio all’unica maglia, e tenendo conto delle relazioni di equilibrio dei singoli componenti di Tab. 1.2 e Tab. 1.3, si ha di u = Ri + v + L dt e, tenendo conto che v = 1/Cq e i = q, ˙ si riottiene l’equazione di sopra.

20

Capitolo 1. Modellistica dei sistemi dinamici

Nel seguito, per determinare il modello dinamico di un circuito elettrico applicheremo sempre i principi di Kirchhoff, in quanto questa `e ancora la metodologia pi` u usata per la modellazione dei circuiti, ed inoltre `e quella che verr` a adoperata anche in tutti i corsi successivi. Inoltre, come variabile di stato di un condensatore si assumer` a sempre la tensione e non la carica.

1.3

La rappresentazione ingresso–stato–uscita

Negli esempi precedenti abbiamo visto come il modello matematico di un sistema dinamico a parametri concentrati assume la forma di un’equazione differenziale. In generale, il modello di un sistema di questo tipo pu` o essere sempre scritto nella forma di un sistema di equazioni differenziali tutte del primo ordine, detta forma normale. Con riferimento ai risultati dell’Esempio 1.3, analizziamo il seguente esempio. Esempio 1.5 Facendo le seguenti posizioni x1 = q,

x2 = q˙

si ha che l’equazione differenziale del secondo ordine in q(t) M q¨ + β q˙ + kq = u risulta equivalente alle due equazioni differenziali del primo ordine x˙ 1 = x2 x˙ 2 = −

k β 1 x1 − x2 + u M M M

(1.3) (1.4)

che costituiscono la forma normale dell’equazione differenziale del secondo ordine da cui siamo partiti. La forma normale pi` u generale in cui si pu` o scrivere il modello matematico di un sistema dinamico `e x˙ 1 (t) = f1 (x1 (t), . . . , xn (t), u1 (t), . . . , ur (t), t) x˙ 2 (t) = f2 (x1 (t), . . . , xn (t), u1 (t), . . . , ur (t), t) .. . x˙ n (t) = fn (x1 (t), . . . , xn (t), u1 (t), . . . , ur (t), t) dove con x1 , . . . , xn si sono indicate tutte le variabili di stato, quindi il numero totale delle variabili di stato `e pari a n = 2 · l, dove l `e il numero di gradi di libert` a del sistema, ed `e detto ordine del sistema, e con u1 , . . . , ur si sono indicate

1.3. La rappresentazione ingresso–stato–uscita

21

le variabili di ingresso del sistema. L’insieme delle equazioni precedenti `e detto equazione di stato. Alle equazioni differenziali che regolano l’evoluzione delle variabili di stato, si affianca sempre una relazione algebrica che serve ad individuare le variabili di uscita del sistema, cio`e quelle variabili che rappresentano l’evoluzione di grandezze fisiche di interesse nel sistema y1 (t) = g1 (x1 (t), . . . , xn (t), u1 (t), . . . , ur (t), t) y2 (t) = g2 (x1 (t), . . . , xn (t), u1 (t), . . . , ur (t), t) .. . ym (t) = gm (x1 (t), . . . , xn (t), u1 (t), . . . , ur (t), t) detta equazione di uscita. L’insieme delle equazioni di stato e di uscita `e detta rappresentazione ingresso–stato–uscita del sistema. Da un punto di vista matematico, le prime domande che si pongono in ogni problema di equazioni differenziali sono quelle riguardanti l’esistenza della soluzione x1 (t), . . . , xn (t). La risposta a questi interrogativi dipende dalla particolare struttura delle funzioni f1 , . . . , fn . In questa sede `e sufficiente dire che l’esistenza della soluzione `e garantita dal fatto che le funzioni fi e le loro derivate parziali ∂fi /∂xj siano definite e continue per i, j = 1, . . . , n. Naturalmente, da un punto di vista pratico, la sola esistenza della soluzione `e di poca utilit` a, in quanto risul` ta altrettanto importante l’unicit` a della soluzione. E noto dalla matematica che l’unicit` a della soluzione `e invece assicurata dalla specificazione delle condizioni iniziali x1 (t0 ), . . . , xn (t0 ). Risulta cos`ı evidente che se di un sistema dinamico `e noto lo stato ad un certo istante di tempo t0 ed `e noto l’ingresso a partire da quell’istante di tempo `e possibile determinare l’evoluzione dello stato stesso negli istanti di tempo futuri t ≥ t0 . Per convincersene, facciamo la seguente considerazione: formalmente potremmo pensare di risolvere il sistema in forma normale integrando sull’intervallo temporale [t0 , t] ogni singola equazione, ottenendo xi (t) − xi (t0 ) =

Z

t

t0

fi (x1 , . . . , xn , u1 , . . . , ur , τ )dτ ,

i = 1, . . . , n

fi (x1 , . . . , xn , u1 , . . . , ur , τ )dτ ,

i = 1, . . . , n .

e quindi xi (t) = xi (t0 ) +

Z

t

t0

Quest’ultima equazione ci mostra che la soluzione del problema `e univocamente determinata in ogni istante di tempo se conosciamo l’ingresso nell’intervallo [t0 , t] e le condizioni iniziali su ogni singola variabile xi (t0 ). Nel caso dell’Esempio 1.5 quindi le condizioni iniziali necessarie riguardano posizione e velocit` a iniziali della massa.

22

Capitolo 1. Modellistica dei sistemi dinamici

Introduciamo ora la notazione vettoriale per rendere pi` u snella la trattazione. Indichiamo con x il vettore delle variabili di stato x1 , . . . , xn , con u il vettore degli ingressi u1 , . . . , ur e con y quello delle uscite y1 , . . . , ym , cio`e 

  x=  

x1 x2 .. . xn



  ,  



  u=  

u1 u2 .. . ur



  ,  



  y=  

y1 y2 .. . ym



   ,  

mentre, con f e g indichiamo le funzioni vettoriali le cui componenti sono f1 , . . . ,fn e g1 , . . . , gm , rispettivamente 

  f (x, u, t) =   

f1 (x, u, t) f2 (x, u, t) .. . fn (x, u, t)



  ,  



  g(x, u, t) =   

g1 (x, u, t) g2 (x, u, t) .. . gm (x, u, t)



   .  

In definitiva, esplicitando la dipendenza delle variabili dal tempo, la i–s–u di un sistema dinamico nella sua forma pi` u generale pu` o essere scritta nella forma x(t) ˙ = f (x(t), u(t), t) y(t) = g(x(t), u(t), t) .

1.3.1

(1.5) (1.6)

Classificazione dei sistemi dinamici

In base alle propriet` a delle funzioni f e g che compaiono nella rappresentazione i–s–u, `e possibile classificare i sistemi dinamici come segue. • Sistemi SISO e MIMO. Si dicono monovariabili o SISO i sistemi dotati di una sola variabile di ingresso e una sola variabile di uscita (m = r = 1). Si dicono multivariabili o MIMO tutti gli altri. • Sistemi strettamente propri o puramente dinamici. Sono sistemi in cui l’uscita dipende dall’ingresso solo attraverso lo stato, ma non direttamente, cio`e y(t) = g(x(t), t) • Sistemi algebrici o adinamici. Si tratta di sistemi in cui l’uscita y ad ogni istante di tempo dipende esclusivamente dal valore assunto dall’ingresso u nello stesso istante di tempo ed eventualmente dal tempo y(t) = g(u(t), t) , in altre parole, il sistema non ha memoria del passato e quindi non ammette alcuna variabile di stato n´e alcuna equazione di stato.

1.3. La rappresentazione ingresso–stato–uscita

23

• Sistemi dinamici tempo invarianti o stazionari. Sono quei sistemi in cui le funzioni di stato e di uscita non dipendono esplicitamente dal tempo, per cui le equazioni (1.5),(1.6) assumono la forma semplificata x(t) ˙ = f (x(t), u(t)) y(t) = g(x(t), u(t)) . In tal caso, si pu` o affermare che se la sollecitazione u(t) genera l’uscita y(t), la stessa sollecitazione traslata nel tempo u(t − T ) genera la stessa uscita traslata nel tempo y(t − T ). • Sistemi lineari. Sono quei sistemi che soddisfano il Principio di sovrapposizione degli effetti: Proposizione 1.2 Supposto che la sollecitazione u1 (t), con condizioni iniziali x10 generi lo stato x1 (t) e l’uscita y1 (t) ed una diversa sollecitazione u2 (t), con diverse condizioni iniziali x20 , generi lo stato x2 (t) e l’uscita y2 (t), allora la sollecitazione αu1 (t) + βu2 (t), con condizioni iniziali αx10 + βx20 , genera lo stato αx1 (t) + βx2 (t) e l’uscita αy1 (t) + βy2 (t). Si pu` o anche affermare che ci` o `e vero se e solo se le funzioni f e g delle equazioni di stato e di uscita (1.5),(1.6) sono combinazioni lineari delle variabili x ed u con coefficienti eventualmente dipendenti dal tempo. • Sistemi a dimensione finita e infinita. I primi sono quelli che necessitano solo di un numero finito di variabili scalari perch´e il loro stato interno sia completamente specificato. D’altra parte, nella realt` a esistono moltissimi sistemi che per essere descritti compiutamente, istante per istante, necessitano di intere funzioni di una o pi` u variabili10 , questi si dicono a dimensione infinita e le equazioni che ne regolano il comportamento sono equazioni differenziali alle derivate parziali. • Sistemi stocastici. Sono quei sistemi in cui alcune o tutte tra le variabili di stato, uscita o ingresso sono di tipo aleatorio. Notiamo esplicitamente che abbiamo finora fatto l’ipotesi che nei sistemi dinamici finora esaminati l’effetto in un generico istante di tempo non dipende dai valori della sollecitazione successivi a tale istante. Tale propriet` a `e detta di causalit` a. In generale, non tutti i sistemi godono di tale propriet` a, ma lo studio dei sistemi non causali sar`a oggetto soprattutto dei corsi di Telecomunicazioni, nei quali si studieranno anche i sistemi stocastici. 10 Ad esempio, la deflessione y della trave descritta nel Paragrafo 1.1, in ogni istante di tempo `e funzione dell’ascissa x.

24

1.4

Capitolo 1. Modellistica dei sistemi dinamici

I sistemi lineari tempo invarianti

Nel corso di Analisi dei Sistemi affronteremo quasi esclusivamente lo studio dei sistemi dinamici lineari e tempo invarianti a dimensione finita (sistemi LTI). Ci` o deriva dal fatto che per tale classe di sistemi dinamici `e possibile mettere a punto metodologie di analisi e sintesi di validit` a generale; inoltre, essi, in particolari condizioni di funzionamento, rappresentano quali sistemi astratti orientati con buona approssimazione un ampio insieme di sistemi dinamici reali. Inoltre, da un punto di vista prettamente applicativo, spesso `e pi` u conveniente avere a disposizione degli strumenti semplici che conducano ad una soluzione ingegneristicamente efficace, piuttosto che strumenti complessi ma di ardua o poco efficiente applicazione. Cos`ı, il sistema dell’Esempio 1.3 soddisfa le ipotesi di linearit` a e stazionariet` a, e le equazioni (1.3),(1.4) possono essere riscritte nella forma matriciale 

0 x˙ =  k − M avendo posto x =

x1 x2

!







1 0 β x +  1 u − M M

.

Cos`ı come per un generico sistema dinamico non lineare, anche per i sistemi LTI, in numerevoli applicazioni, si `e spesso interessati solo ad alcune grandezze che evolvono all’interno del sistema, le cosiddette variabili di uscita. Con riferimento all’Esempio 1.4

Esempio 1.6 Scriviamo l’equazione del secondo principio di Kirchhoff prendendo come variabili di stato la tensione sul condensatore, anzich´e la carica, (x1 ) e la corrente nell’induttore (x2 ) u = Rx2 + Lx˙ 2 + x1 e poi tenendo conto della relazione di equilibrio del condensatore si ha x2 = C x˙ 1 , che scritte in forma matriciale diventano x˙ =

0 1/C −1/L −R/L

!

x+

0 1/L

!

u

Se siamo interessati all’evoluzione della sola tensione ai capi del resistore, allora il modello matematico va arricchito di un’ulteriore equazione, detta equazione di uscita, che metta in relazione tale variabile con lo stato del sistema ed eventualmente con

1.4. I sistemi lineari tempo invarianti R

u1

y1 x1

i1 A

25 x2

L

B i2

C

R

y2

u2

Figura 1.9: Circuito elettrico dell’Esempio 1.7 l’ingresso. Detta y tale tensione, si ha y = Ri = Rx2 , che in forma matriciale si scrive y = (0 R)x .

In generale, per un sistema lineare tempo invariante, la rappresentazione ingresso–stato–uscita `e sempre del tipo x˙ = Ax + Bu y = Cx + Du ,

(1.7) (1.8)

dove la matrice A di dimensioni n × n, se n `e l’ordine del sistema, `e detta matrice dinamica, la matrice B di dimensioni n × r, se r `e il numero degli ingressi, `e detta matrice degli ingressi, la matrice C di dimensioni m × n, se m `e il numero delle uscite, `e detta matrice delle uscite, e la matrice D ha dimensioni m × r. Facciamo un esempio di sistema lineare a pi` u ingressi e pi` u uscite (MIMO).

Esempio 1.7 Il circuito in Fig. 1.9, avendo un condensatore ed un induttore, avr` a due variabili di stato, siano x1 la tensione ai capi del condensatore e x2 la corrente nell’induttore. Di conseguenza, la matrice dinamica avr` a dimensioni 2×2. La presenza di due generatori indipendenti implica la presenza di due ingressi, quindi la matrice degli ingressi avr` a dimensioni 2. Se siamo interessati all’evoluzione della tensione ai capi dei due resistori, il sistema avr` a due uscite e quindi la matrice delle uscite avr` a dimensioni 2×2, cos`ı come la matrice D. Scriviamo l’equazione del secondo principio di Kirchhoff alla maglia contenente il generatore di tensione, considerando anche la relazione di equilibrio del resistore u1 = Ri1 + x1 . Scriviamo l’equazione del primo principio di Kirchhoff al nodo B u2 = x2 + i2 .

26

Capitolo 1. Modellistica dei sistemi dinamici

Tenendo conto della relazione di equilibrio del condensatore, per il primo principio di Kirchhoff al nodo A vale la relazione i1 = C x˙ 1 − x2 , mentre la relazione di equilibrio dell’induttore e il secondo principio di Kirchhoff alla maglia centrale implicano l’equazione Ri2 = x1 + Lx˙ 2 . Per eliminare le variabili i1 e i2 , si sostituiscono le ultime due equazioni nelle prime due e quindi si ricavano le derivate prime delle variabili di stato ottenendo l’equazione di stato, che in forma matriciale (posto x = (x1 x2 )T , u = (u1 u2 )T ) si scrive    

x˙ = 



1 RC



1 L

1 C −



1  RC  

  x +   R 

L

0

0



  u R 

L

L’equazione di uscita si ottiene dalle prime due equazioni tenendo conto che per la relazione di equilibrio del resistore si ha y1 = Ri1 e y2 = Ri2 . L’equazione in forma matriciale (posto y = (y1 y2 )T ) si scrive y=

−1 0 0 −R

!

x+

1 0 0 R

!

u.

In particolare, per sistemi con un solo ingresso ed una sola uscita (SISO), la rappresentazione i–s–u assume la forma semplificata x˙ = Ax + bu y = cT x + du dove i vettori b e c hanno dimensione n e A `e sempre una matrice di dimensioni n × n, essendo n l’ordine del sistema, pari al numero di variabili di stato (vedi Esempi 1.4 e 1.6).

1.4.1

La rappresentazione ingresso–uscita

Nel modellare un sistema, a volte, pu` o avvenire che non si `e in grado di individuare facilmente le variabili di stato perch´e non si riesce a dare un chiaro significato fisico alle grandezze che entrano in gioco nella descrizione del comportamento del sistema dinamico. Facciamo un esempio.

1.4. I sistemi lineari tempo invarianti

27

M

β

k

x

u

Figura 1.10: Sistema di sospensione di un autoveicolo

Esempio 1.8 Consideriamo il sistema meccanico in Fig. 1.10, che schematizza il sistema di sospensione di un autoveicolo. Indichiamo con x lo spostamento del veicolo di massa M , con k e β la costante elastica e il coefficiente di attrito della sospensione, rispettivamente, infine, indichiamo con u lo spostamento impresso alla sospensione dal fondo stradale11 . Applicando il metodo di Lagrange, abbiamo che T =

1 M x˙ 2 , 2

1 V = k(x − u)2 , 2

1 ˙ 2 D = β(x˙ − u) 2

per cui i termini dell’equazione di Eulero-Lagrange, con q = x, sono ∂L(x, x) ˙ d ∂L(x, x) ˙ = M x˙ ⇒ = Mx ¨ ∂ x˙ dt ∂ x˙ ∂L(x, x) ˙ = −k(x − u), ∂x e l’equazione del moto risulta

∂D(x) ˙ = β(x˙ − u) ˙ ∂ x˙

Mx ¨ + β(x˙ − u) ˙ + k(x − u) = 0 Essendo interessati all’evoluzione della sola posizione del veicolo, scegliamo come uscita la posizione della massa M (y = x) e otteniamo l’equazione M y¨ + β y˙ + ky = β u˙ + ku Come si vede nell’equazione differenziale compare la derivata dell’ingresso e quindi non `e possibile scrivere facilmente l’equazione in forma normale. 11

Nel modello abbiamo trascurato la massa e l’elasticit` a del pneumatico, mentre la forza di gravit` a non gioca alcun ruolo in quanto influenza unicamente la posizione di equilibrio delle molle, e quindi la costante a meno della quale `e definita l’energia potenziale, ma che non pu` o mai comparire nelle equazioni del moto.

28

Capitolo 1. Modellistica dei sistemi dinamici

Il modello a cui siamo giunti nell’esempio precedente `e costituito ancora da un’equazione differenziale che, per` o, coinvolge solo le variabili di ingresso e uscita del sistema, per questo `e detto rappresentazione ingresso–uscita. Per un sistema LTI generico, l’ipotesi di linearit` a che abbiamo fatto sul sistema assicura che l’equazione differenziale della rappresentazione ingresso–uscita che governa l’evoluzione del sistema `e lineare, mentre per l’ipotesi di tempo invarianza essa `e a coefficienti costanti. La forma pi` u generale possibile del modello dinamico, nella forma di rappresentazione ingresso–uscita, di un sistema che rispetti le precedenti ipotesi `e y (n) + a1 y (n−1) + · · · + an y = b0 u(n) + b1 u(n−1) + · · · + bn u (1.9) dove a1 , . . . , an e b0 , . . . , bn sono costanti scalari. La (1.9) descrive completamente, fissati y (n−1) (0), . . . , y(0) e u(t), l’evoluzione dell’uscita y(t) del sistema12 . Nel paragrafo successivo vedremo come `e possibile passare da una forma di rappresentazione all’altra.

1.5

Passaggi tra le forme di rappresentazione

In questo paragrafo analizzeremo come, data una rappresentazione i–s–u del sistema, si pu` o ottenere la rappresentazione i–u e viceversa. Siccome pu` o essere dimostrato che la rappresentazione i–s–u non `e unica, il secondo problema ha pi` u soluzioni, delle quali noi ci limiteremo a considerare le pi` u frequentemente utilizzate. Vedremo inoltre che gli algoritmi per costruire la rappresentazione i–s–u forniscono un utile strumento per realizzare sistemi il cui comportamento sia governato dall’equazione differenziale assegnata. Per tale motivo una rappresentazione i–s–u di un sistema `e detta anche realizzazione del sistema.

1.5.1

Passaggio da i–s–u a i–u

Consideriamo un sistema SISO di ordine n espresso tramite una rappresentazione i–s–u del tipo visto finora x˙ = Ax + bu y = cT x + du e proponiamoci di ricavare la corrispondente rappresentazione i–u y (n) + a1 y (n−1) + · · · + an y = b0 u(n) + b1 u(n−1) + · · · + bn u 12 Si noti che la rappresentazione i–u nella forma dell’equazione (1.9) `e valida solo per sistemi con un solo ingresso e una sola uscita (SISO).

1.5. Passaggi tra le forme di rappresentazione

29

Sia inoltre a(λ) = λn + a1 λn−1 + · · · + an il polinomio caratteristico della matrice A (per questo e i seguenti concetti si veda l’Appendice B). Considerando l’equazione di uscita e le sue derivare temporali fino all’ordine n si ottiene y = cT x + du y˙ = cT Ax + cT bu + du˙ y¨ = cT A2 x + cT Abu + cT bu˙ + d¨ u .. . (n) y = cT An x + cT An−1 bu + · · · + cT bu(n−1) + du(n) Moltiplicando ora la prima identit` a per an , la seconda per an−1 e cos`ı via fino alla penultima, moltiplicata per a1 , e sommando, i termini contenenti lo stato x si annullano in virt` u del teorema di Caley–Hamilton, e quindi resta solo un legame fra ingresso (e sue derivate) e uscita (e sue derivate), che pu` o essere espresso nella forma voluta: y (n) + a1 y (n−1) + · · · + an y = b0 u(n) + b1 u(n−1) + · · · + bn u dove b0 = d b1 = cT b + a1 d b2 = cT Ab + a1 cT b + a2 d .. . bn = cT An−1 b + a1 cT An−2 b + · · · + an d

1.5.2

(1.10)

Passaggio da i–u a i–s–u

Prima di esaminare in dettaglio gli algoritmi di realizzazione, vediamo perch´e la rappresentazione i–s–u di un sistema LTI non `e unica. Dato un sistema LTI, supponiamo nota una sua i–s–u nella forma (1.7),(1.8) ed eseguiamo il seguente cambiamento di variabili z = Tx (1.11) nell’ipotesi che la matrice di trasformazione T sia invertibile, per cui `e ben definita anche la trasformazione inversa x = T −1 z . Calcolando la derivata temporale della nuova variabile di stato z, si ottiene z˙ = T x˙ = T (Ax + Bu) = T Ax + T Bu = T AT −1 z + T Bu ,

30

Capitolo 1. Modellistica dei sistemi dinamici

e analogamente nell’equazione di uscita y = CT −1 z + Du per cui, la i–s–u nella variabile di stato z `e ˆ + Bu ˆ z˙ = Az ˆ + Du , y = Cz dove la matrice dinamica, quella degli ingressi e quella delle uscite sono legate alle corrispondenti matrici della rappresentazione i–s–u di partenza dalle relazioni Aˆ = T AT −1 ,

ˆ = T B, B

Cˆ = CT −1 .

In definitiva, di un sistema esistono infinite i–s–u, perci` o `e evidente che il passaggio da una rappresentazione i–u ad una rappresentazione i–s–u pu` o avvenire in pi` u modi. Iniziamo con una prima maniera di procedere, che ci condurr` a alla cosiddetta forma canonica di osservazione. Integrando l’equazione i–u (1.9) n volte si ottiene Z

y = b0 u+ (b1 u−a1 y)dτ1 +

ZZ

Z

Z

(b2 u−a2 y)dτ1 dτ2 +· · · + · · · (bn u−an y)dτ1 · · ·dτn

` vantaggioso a questo punto rappresentare graficamente questa equazione traE mite uno schema a blocchi, cio`e un disegno in cui le operazioni sulle variabili sono rappresentate con dei blocchi (integratore, sommatore e prodotto per una costante) come in Fig. 1.11. Definendo come variabili di stato le uscite degli integratori si ottengono le seguenti relazioni x˙ 1 = −an y + bn u = −an xn + (bn − b0 an )u x˙ 2 = x1 − an−1 y + bn−1 u = x1 − an−1 xn + (bn−1 − b0 an−1 )u .. . x˙ n = xn−1 − a1 y + b1 u = xn−1 − a1 xn + (b1 − b0 a1 )u y = xn + b0 u che in forma matriciale diventano 

   x˙ =    

y =



0

0 0 ··· 1 0 ··· 0 1 ··· .. .. . . . . . 0 0 ···

0 −an 0 −an−1 0 −an−2 .. .. . . 1 −a1

0 0 ···







      x +       

1 x + b0 u

bn − b0 an bn−1 − b0 an−1 bn−2 − b0 an−2 .. . b1 − b0 a1



   u   

1.5. Passaggi tra le forme di rappresentazione

bn

b2

x˙ 1

u

31

R

x1

x˙ n−1

−an

−a2

b1

R

xn−1 x˙ n

b0

R

xn

y

−a1

Figura 1.11: Schema di sistema in forma canonica di osservazione Si noti che la matrice dinamica associata a questa rappresentazione `e in forma compagna verticale destra (Si veda l’Appendice B per le propriet` a peculiari di questa forma). Una rappresentazione che abbia questa struttura `e detta forma canonica di osservazione. Vediamo ora una forma alternativa della descrizione i–s–u ottenuta con un diverso procedimento. Il punto di partenza `e il seguente: supponiamo di voler ottenere una rappresentazione schematica dell’equazione differenziale di ordine n 

y (n) = F y (n−1) , . . . , y, ˙ y, u, t



Come spesso accade, la soluzione di un problema che non pu` o essere ottenuta per via diretta viene trovata ribaltando l’ottica da cui si osservano i dati. Nel 1876 Lord Kelvin osserv` o che, supponendo di avere a disposizione la derivata n– esima y (n) `e possibile tramite integratori ricavare le derivate di ordine pi` u basso. Queste derivate possono essere mandate in ingresso ad un dispositivo che realizzi la funzione F , la cui uscita sar` a proprio y (n) , il che ci permette di chiudere il ciclo, come illustrato in Fig. 1.12. In questa maniera la simulazione `e ottenuta utilizzando solo integratori. Dopo questa premessa siamo in grado di presentare la nuova forma di rappresentazione i–s–u. Illustriamo il metodo con un esempio sufficientemente generale da non complicare poi la successiva generalizzazione. Si consideri un sistema la cui rappresentazione i–u sia ... ... y +a1 y¨ + a2 y˙ + a3 y = b0 u +b1 u ¨ + b2 u˙ + b3 u (1.12)

32

Capitolo 1. Modellistica dei sistemi dinamici y (n)

y (n−1)

R

R



y (n−2)

F y (n−1) , y (n−2) , . . . , y, ˙ u, t





R

y

u

Figura 1.12: Schema di Kelvin e sia ξ la soluzione del sistema ... ξ +a1 ξ¨ + a2 ξ˙ + a3 ξ = u

(1.13)

Supponiamo ora che le condizioni iniziali nelle (1.12), (1.13) siano nulle. In questa ipotesi `e possibile sfruttare la linearit` a delle equazioni per ottenere un’equazione che definisca l’uscita y della (1.12) in funzione delle variabili ausiliarie ξ ottenute dalla (1.13). Infatti l’ingresso applicato alla (1.12) `e una combinazione lineare (ricordando che l’operatore di derivazione `e lineare) di quello applicato alla (1.13), quindi l’uscita y sar` a esprimibile come ... y = b0 ξ +b1 ξ¨ + b2 ξ˙ + b3 ξ

(1.14)

La simulazione della (1.13) pu` o essere eseguita utilizzando il metodo di Lord Kelvin illustrato in precedenza, mentre in un primo momento l’uscita y pu` o essere ricavata dalla (1.14) tramite derivatori, ottenendo lo schema in Fig. 1.13. ... ˙ ξ, ¨ ξ sono gi` Per eliminare ora i derivatori osserviamo che le variabili ξ, ξ, a disponibili all’ingresso degli integratori, quindi `e sufficiente spostare le linee di ingresso della (1.14) per eliminare la necessit` a di derivatori, come illustrato in Fig. 1.14. A questo punto la rappresentazione i–s–u `e ottenuta semplicemente ponendo ˙ x3 = ξ, ¨ che soddisfano le equazioni x1 = ξ, x2 = ξ, x˙ 1 x˙ 2 x˙ 3 y

= = = =

x2 x3 −a3 x1 − a2 x2 − a1 x3 + u (b3 − b0 a3 )x1 + (b2 − bo a2 )x2 + (b1 − b0 a1 )x3 + b0 u

1.5. Passaggi tra le forme di rappresentazione

... ξ

u

R

ξ¨

R

ξ˙

33 d3 dt3

b0

d2 dt2

b1

d dt

b2

ξ

R

y

b3

−a1 −a2 −a3 Figura 1.13: Passo intermedio per la realizzazione che in forma matriciale diventano 







0 1 0 0     0 1 x +  0 u x˙ =  0 −a3 −a2 −a1 1 y = (b3 − b0 a3

b2 − b0 a2

b1 − b0 a1 )x + b0 u

Questa forma di rappresentazione `e detta forma canonica di controllo. La forma generale di questo tipo di realizzazione di un sistema con rappresentazione i– u (1.9) `e 

x˙ =

y =

       

0 0 .. .

1 0 .. .

0 1 .. .

··· ··· .. .

0 0 .. .

0 0 0 ··· 1 −an −an−1 −an−2 · · · −a1





0 0 .. .

      x +        0

1



   u   

bn − b0 an bn−1 − b0 an−1 bn−2 − b0 an−2 · · · b1 − b0 a1



x + b0 u

Si noti che ancora una volta la matrice dinamica `e in forma compagna, questa volta per` o orizzontale inferiore, e che la rappresentazione `e duale rispetto alla forma canonica di osservazione, nel senso che valgono le relazioni Ac = ATo , bc = co , cc = bo e dc = do , dove i pedici “c” e “o” sono riferiti alle variabili in forma canonica di controllo e osservazione rispettivamente.

34

Capitolo 1. Modellistica dei sistemi dinamici

replacemen

b0 b1 b2 u

x˙ 3

R

x3

R x2

R

x1

y

b3

−a1 −a2 −a3 Figura 1.14: Forma canonica di controllo In questo paragrafo, abbiamo visto che di un sistema esistono infinite realizzazioni, che hanno tutte lo stesso comportamento ingresso–uscita, nel senso che sotto gli stessi ingressi generano le stesse evoluzioni della variabile di uscita, e in tal senso vanno considerate equivalenti. Tuttavia, non `e possibile attribuire alcun significato fisico alle variabili di stato che compaiono nelle diverse rappresentazioni i–s–u. Ci` o significa che l’evoluzione delle singole variabili di stato non ci d`a alcuna informazione su quanto sta avvenendo all’interno del sistema reale. Inoltre, il sistema reale potrebbe avere delle particolari propriet` a del tutto diverse da quelle possedute dal sistema realizzato a partire dalla sua rappresentazione i–u, propriet` a legate evidentemente alla particolare struttura interna del sistema stesso. Vediamo un esempio.

Esempio 1.9 Consideriamo il sistema LTI x˙ 1 = −3x1 x˙ 2 = 2x1 − 4x2 + u y = x1 + x2 la cui rappresentazione i–u si ottiene calcolando il polinomio caratteristico della matrice dinamica e successivamente applicando le relazioni (1.10) y¨ + 7y˙ + 12y = u˙ + 3u .

1.6. Linearizzazione

35

Applicando la forma canonica di controllo, da questa rappresentazione i–u si otterrebbe la rappresentazione i–s–u z˙1 = z2 z˙2 = −12z1 − 7z2 + u y = 3z1 + z2 , avendo avuto cura di usare un diverso simbolo per le variabili di stato. Da una semplice ispezione delle equazioni della rappresentazione i–s–u originaria si nota che l’ingresso u non ha alcun effetto sulla variabile di stato x1 , difatti istante per istante tale variabile vale x1 (t) = e−3t x10 e quindi risulta indipendente da u. Al contrario, `e evidente dalle equazioni della forma canonica di controllo, che l’ingresso `e in grado di influenzare entrambe le variabili di stato. Infatti, z1 `e l’integrale di z2 che dipende direttamente dall’ingresso u. Se ne deduce che la struttura interna dei due sistemi `e completamente differente, ciononostante presentano lo stesso comportamento ingresso–uscita. La situazione pu` o essere visualizzata graficamente esaminando i due schemi a blocchi in Fig. 1.15, dove si nota che nel sistema originario la variabile di u di una eventuale condizione iniziale ma non in virt` u delstato x1 evolve solo in virt` l’ingresso u, che invece influenza entrambe le variabili di stato del secondo sistema realizzato in forma canonica di controllo. Dall’esempio appena presentato si comprende come `e possibile che in alcuni sistemi esistano delle variabili di stato la cui evoluzione non pu` o essere influenzata dall’ingresso; tali variabili costituiscono lo stato di un particolare sottosistema (in pratica scollegato dall’ingresso) del sistema originario, detto parte non controllabile (schema a blocchi in alto in Fig. 1.15). Nell’esempio precedente le equazioni di stato erano in una forma tale che la parte non controllabile era di immediata individuazione, ma ci` o non sempre `e possibile. Tuttavia, esistono degli algoritmi che consentono di determinare sempre una trasformazione di variabili di stato del tipo (1.11) tale che nelle nuove equazioni di stato venga evidenziata la parte non controllabile. In maniera duale, esistono sistemi in cui alcune variabili di stato non concorrono nel determinare l’evoluzione dell’uscita, esse individuano la cosiddetta parte non osservabile del sistema. Una trattazione completa dei concetti di controllabilit` a e osservabilit` a di un sistema dinamico LTI pu` o essere trovata, ad esempio, in [11] o in [7].

1.6

Linearizzazione

Fino a questo punto ci siamo occupati solo di sistemi lineari e stazionari, ma va sottolineato che a rigore nessun sistema fisico pu` o rientrare in questa classe13 . 13 In realt` a nessun sistema fisico `e descrivibile con relazioni di tipo esclusivamente logico–matematico.

36

Capitolo 1. Modellistica dei sistemi dinamici x1

R

−3

parte non controllabile

2

u

x2

R

y

−4

u

R

z2

R

z1

3

y

−7 −12 Figura 1.15: Sistema originario (alto) e realizzazione in forma canonica di controllo (basso) dell’Esempio 1.9 D’altra parte il vantaggio della descrizione lineare dei sistemi `e innegabile in termini di semplicit` a computazionale e disponibilit` a di strumenti matematici, ed `e giustificata quando le variazioni dello stato del sistema siano sufficientemente “piccole”. Per chiarire questa affermazione, consideriamo il seguente esempio. Esempio 1.10 Per ricavare il modello dinamico di un pendolo senza attrito (vedi Fig. 1.16), fissiamo come coordinata generalizzata l’angolo θ e troviamo le energie cinetica e potenziale T =

1 ˙2 Jθ , 2

V = mgh = mgl(1 − cos θ)

dove J = ml2 `e il momento di inerzia della massa m che ruota attorno al punto di sospensione. I termini dell’equazione di Eulero-Lagrange, con q = θ, sono ˙ ˙ ∂L(θ, θ) d ∂L(θ, θ) = J θ˙ ⇒ = J θ¨ dt ∂ θ˙ ∂ θ˙

1.6. Linearizzazione

37 xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

C

l θ xxxxxxxxx xxxxxxxxx xxxxxxxxx xxxxxxxxx xxxxxxxxx xxxxxxxxx xxxxxxxxx xxxxxxxxx

m

h

Figura 1.16: Pendolo semplice ˙ ∂L(θ, θ) = −mgl sin θ, ∂θ E quindi l’equazione del moto risulta g C θ¨ + sin θ = l J La descrizione del sistema risulta quindi non lineare. E` noto d’altra parte che nell’ipotesi di piccoli valori dell’angolo θ `e lecito approssimare la funzione seno con il suo argomento: g C θ¨ + θ = l J e quindi la descrizione `e stata resa lineare. Si pone ora il problema di generalizzare questo modo di procedere, per poter affrontare casi in cui la linearizzazione sia meno banale dell’esempio presentato. Per risolverlo, conviene riconsiderare l’approssimazione del seno con il suo argomento adottata nell’esempio. Da un punto di vista matematico l’approssimazione `e permessa dallo sviluppo in serie di Mc Laurin della funzione seno: sin x = x −

x3 x5 + − ··· 3! 5!

secondo la quale sin x = x + o(x2 ). Questa considerazione ci fornisce una metodologia per estendere la linearizzazione ai casi pi` u complessi, formalizzando il problema come segue. Si consideri il sistema non lineare e stazionario con rappresentazione i–s–u x˙ = f (x, u), y = g(x, u)

x(0) = x0

38

Capitolo 1. Modellistica dei sistemi dinamici

e supponiamo di conoscere, per un assegnato ingresso u ˆ(t) la soluzione x ˆ(t) corrispondente alle condizioni iniziali x ˆ(0) = x ˆ0 , e corrispondentemente l’uscita sia yˆ = g(ˆ x, u ˆ). Consideriamo ora un nuovo ingresso che si ottiene perturbando “leggermente”14 il precedente, v(t) = u ˆ(t) + δu(t) e condizioni iniziali perturbate z(0) = x ˆ0 + δx0 ; esprimiamo la soluzione di questo nuovo sistema nella forma z=x ˆ + δx e w = yˆ + δy (cosa sempre possibile). Avremo quindi z˙ = f (z, v), z(0) = x ˆ0 + δx0 y = g(z, v) . D’altra parte z˙ = x ˆ˙ + δx˙ e sviluppando le funzioni f e g in serie di Taylor di punto iniziale (ˆ x, u ˆ) abbiamo f (z, v) = f (ˆ x, u ˆ) +



∂f ∂x

∂g g(z, v) = g(ˆ x, u ˆ) + ∂x

Ora poniamo

A(t) =



∂f ∂x

∂g C(t) = ∂x

x=ˆ x

δx +

u=ˆ u

x=ˆ x u=ˆ u

x=ˆ x



∂g δx + ∂u ,

u=ˆ u

x=ˆ x u=ˆ u



∂f ∂u

,

x=ˆ x

δu + o(k(δx, δu)k)

u=ˆ u

x=ˆ x

δu + o(k(δx, δu)k)

u=ˆ u

B(t) =



∂f ∂u

∂g D(t) = ∂u

x=ˆ x

(1.15)

u=ˆ u

x=ˆ x

(1.16)

u=ˆ u

e otteniamo una descrizione al primo ordine della dinamica delle variazioni δx della soluzione: δx˙ = A(t)δx + B(t)δu, δx(0) = δx0 δy = C(t)δx + D(t)δu , detto modello linearizzato del sistema non lineare di partenza. Si osservi che se pure le funzioni f e g non dipendono esplicitamente dal tempo (cio`e se il sistema non lineare di partenza `e stazionario) allora la dipendenza dal tempo delle matrici A, B, C e D `e dovuta solo alle funzioni x ˆ(t) e u ˆ(t). In particolare quindi se l’ingresso nominale u ˆ e la soluzione nominale x ˆ sono costanti nel tempo, anche la descrizione linearizzata `e stazionaria. Un movimento x ˆ che sia 14

Cio`e la perturbazione deve essere tale che kδuk > B=[1 0 -2;3 -1 1]; e il loro prodotto si calcola con l’istruzione A*B. Da notare che se si tentasse di eseguire il prodotto B*A il MATLAB risponderebbe con un messaggio di errore, infatti il prodotto righe per colonne B*A non `e ben definito. Per calcolare l’inversa di una matrice o il suo determinante si possono usare le funzioni inv e det, rispettivamente. L’operatore di trasposizione `e invece ’. Ad esempio, l’espressione C T A−1 B si calcola con l’istruzione C’*inv(A)*B. Infine, per calcolare autovalori e autovettori di una matrice quadrata si pu` o usare la funzione eig, secondo la seguente sintassi >> [V,D]=eig(A); dove D `e la matrice diagonale contenente gli autovalori di A e V `e la matrice dei rispettivi autovettori, cio`e tale che A*V=V*D, per cui se A `e diagonalizzabile V `e invertibile e si ha inv(V)*A*V=D. 15

Per una guida operativa a MATLAB si veda [3].

42

Capitolo 1. Modellistica dei sistemi dinamici xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxx xxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxx xxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxx xxxxx

β

k1

k2

m1

m2

f1

f2

Figura 1.18: Sistema meccanico dell’Esercizio 1.1. ωa

C

ra

Ja

αa k

αb

rb

ωc

αc Jc

ωb

β Figura 1.19: Sistema meccanico dell’Esercizio 1.2. Il Control System Toolbox, mette a disposizione un tipo di variabile detto “sistema”, che `e possibile adoperare con tutta una serie di comandi dedicati all’analisi dei sistemi LTI. Per definire una variabile di questo tipo esistono varie possibilit` a a seconda della forma di rappresentazione scelta per il sistema. Cos`ı, se si vuole definire un sistema S di cui si conoscono le matrici A, B, C, D della rappresentazione i–s–u, allora si pu` o usare il comando >> S = ss(A,B,C,D);

1.8

Esercizi

Esercizio 1.1 Determinare le equazioni del moto del sistema meccanico rappresentato in Fig. 1.18. Esercizio 1.2 Determinare una rappresentazione i–s–u del sistema meccanico in Fig. 1.19, assumendo come ingresso la coppia C e come uscita la deformazione della

1.8. Esercizi

43

molla rotazionale. Si noti che il riduttore (o trasformatore meccanico) `e un sistema adinamico che trasferisce il moto tra assi paralleli conservando la potenza meccanica. Dunque, la relazione che lo caratterizza `e ωb = kr ωa ,

dove

kr = −ra /rb

u2 iR

R

R

u1

x2 = y1

y2

iC

vR x1

L

C

Figura 1.20: Sistema elettrico dell’Esercizio 1.3. Esercizio 1.3 Applicando i principi di Kirchhoff, determinare una i–s-u del sistema elettrico in Fig. 1.20. y

m

px ϕ x 0

py

l M

u

x

xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

Figura 1.21: Sistema meccanico dell’Esercizio 1.4. Esercizio 1.4 Determinare le energie cinetica e potenziale del sistema meccanico in Fig. 1.21, scegliendo come variabili lagrangiane x e ϕ indicate in figura. Esercizio 1.5 Data la seguente rappresentazione i–u di un sistema LTI 3¨ y + 12y˙ − 15y = 6u˙ + 9u , determinarne le realizzazioni in forma canonica di controllo e di osservazione.

44

Capitolo 1. Modellistica dei sistemi dinamici i 1

i

π u

C

v

N.L.

0

−π

v

tratto di sinusoide Figura 1.22: Circuito elettrico dell’Esercizio 1.6. Esercizio 1.6 Determinare una rappresentazione i–s–u del circuito in Fig. 1.22 con C = 1 F, quindi determinare √ il sistema linearizzato attorno ai punti di equilibrio corrispondenti all’ingresso u ˆ = 2/2 V. Esercizio 1.7 Determinare la propriet` a di stabilit` a dei punti di equilibrio del sistema x˙ 1 = x2 x˙ 2 = −2u sin x1 − x2 + u y = x1 in corrispondenza dell’ingresso u ˆ = 1. Esercizio 1.8 Disegnando lo schema a blocchi del sistema LTI x˙ =

1 0 −1 −3

!

x+

0 1

!

u

y = ( 1 1 )x ,

verificare l’eventuale presenza di una parte non controllabile.

CAPITOLO 2

Analisi dei sistemi a tempo continuo

Dopo aver esaminato nel precedente capitolo le tecniche di descrizione di un sistema lineare e stazionario a tempo continuo, ne analizzeremo in questo capitolo l’evoluzione dinamica. Lo strumento principale adoperato per questo fine `e la trasformata di Laplace, di cui verranno forniti brevi richiami nel paragrafo introduttivo. Successivamente definiremo la funzione di trasferimento e calcoleremo la risposta del sistema ad ingressi e condizioni iniziali nel dominio di Laplace. Antitrasformando torneremo nel dominio del tempo e caratterizzeremo le risposte tipiche per sistemi del primo e del secondo ordine. Quindi definiremo la stabilit` a dei sistemi dinamici e affronteremo il problema della determinazione della risposta in regime permanente. Infine introdurremo lo strumento di analisi degli schemi a blocchi dando qualche cenno sulle tecniche di realizzazione di un’assegnata funzione di trasferimento.

2.1

La trasformata di Laplace

La trasformata di Laplace `e un operatore che associa biunivocamente una generica funzione del tempo f (t) a una funzione F (s) definita sul campo dei numeri complessi C e a valori ancora complessi. La notazione in uso per indicare la trasformazione `e F (s) = L[f (t)] . 45

46

Capitolo 2. Analisi dei sistemi a tempo continuo

La definizione che ora daremo `e la pi` u generale possibile (se la funzione f (t) `e 1 una funzione ordinaria ) ed `e la cosiddetta trasformata di Laplace bilatera 2 F (s) =

Z

+∞

f (t)e−st dt .

(2.1)

−∞

Naturalmente, in generale, l’espressione (2.1) potrebbe non essere ben definita per tutti i valori complessi di s, allora il sottoinsieme dei valori di s per cui l’integrale pu` o essere calcolato `e detto dominio di convergenza e si pu` o dimostrare essere sempre una striscia verticale del piano complesso, o un semipiano o un piano. Inoltre, vale la seguente Proposizione 2.1 Se la funzione f (t) `e nulla per t < a (con a ∈ R) allora, il dominio di convergenza `e sempre un semipiano destro, cio`e formato dalle s complesse che hanno parte reale maggiore di un opportuno α0 , detto ascissa di convergenza. La biunivocit`a della trasformazione `e garantita quando alla funzione trasformata F (s) si associa sempre il dominio di convergenza, per cui esiste l’operatore di antitrasformata di Laplace f (t) = L−1 [F (s)] definito da

1 f (t) = 2πj

Z

α+j∞

F (s)est ds

(2.2)

α−j∞

dove l’integrale `e esteso a qualsiasi retta parallela all’asse immaginario e contenuta nel dominio di convergenza. Siccome, nella maggior parte delle applicazioni si ha a che fare con funzioni del tempo che iniziano ad un certo istante t0 , e le cui trasformate di Laplace hanno quindi per dominio di convergenza un semipiano destro, quando `e assegnata una F (s) si sottintende sempre che il suo dominio di convergenza sia il pi` u grande semipiano destro di C in cui F (s) `e analitica. Un’importante considerazione pratica `e che nella maggior parte dei casi, il calcolo della antitrasformata non richiede l’applicazione della formula (2.2), ma `e sufficiente riconoscere nell’espressione della F (s) da antitrasformare una trasformata nota. Di conseguenza, nel seguito affronteremo il calcolo di qualche trasformata comune, mentre un pi` u completo insieme di trasformate notevoli `e riportato in Appendice C. Prima per` o di procedere con gli esempi, `e bene premettere, senza peraltro riportarne la dimostrazione, qualche propriet` a formale della trasformata di Laplace. 1

Per la definizione rigorosa della trasformata di Laplace quando f (t) `e una distribuzione vedi [5]. 2 Per alcuni richiami sull’esponenziale complesso vedi Appendice A.

2.1. La trasformata di Laplace • Linearit` a

47

L[k1 f1 (t) + k2 f2 (t)] = k1 F1 (s) + k2 F2 (s)

• Coniugazione

F (s∗ ) = F ∗ (s)

• Cambiamento di scala L[f (t/a)] = |a|F (as) • Traslazione in t

L[f (t − T )] = e−sT F (s)

• Traslazione in s

L[es0 t f (t)] = F (s − s0 )

Ma la principale caratteristica della trasformata di Laplace `e la sua capacit` a di tramutare operazioni integro–differenziali in algebriche, grazie alle propriet` a • Derivata in t





d L f (t) = sF (s) dt

• Derivata in s

L[−tf (t)] =

d F (s) ds

• Integrale in t. Se f (t) = 0, t < 0, allora L

Z

t

0



1 f (τ )dτ = F (s) s

Altre importanti propriet` a sono • Valore finale. Se esiste il lim f (t), allora t→+∞

lim f (t) = lim sF (s)

t→+∞

s→0

• Valore iniziale Se f (t) = 0, t < 0, allora lim f (t) = lim sF (s)

t→0+

• Convoluzione3 L

Z

+∞

−∞

s→∞



f (τ )g(t − τ )dτ = F (s)G(s)

48

Capitolo 2. Analisi dei sistemi a tempo continuo wT (t) 1

− T2

T 2

0

t

Figura 2.1: Funzione finestra wT (t) Passiamo ora al calcolo di qualche trasformata particolare. Particolare interesse assumono le cosiddette funzioni finestra, cio`e funzioni del tempo nulle al di fuori di un certo intervallo. Esempio 2.1 La funzione finestra rettangolare di durata T (il cui grafico `e riportato in Fig. 2.1) `e definita come wT (t) =

(

1 −T /2 < t < T /2 0 altrove

(2.3)

La sua trasformata di Laplace `e facilmente calcolabile come L[wT (t)] = =

Z

+∞ −∞

−st

wT (t)e

dt =

Z

T /2

−T /2

−st

e



1 dt = − e−st s

esT /2 − e−sT /2 sinh(sT /2) =2 s s

T /2

=

−T /2

che `e una funzione analitica in tutto C, che quindi `e il dominio di convergenza della trasformata calcolata, in altri termini la sua ascissa di convergenza `e −∞. Di particolare importanza `e la trasformata seguente. Esempio 2.2 Calcoliamo la trasformata di Laplace del gradino unitario, cio`e la funzione definita come4 ( 1 t≥0 δ−1 (t) = 0 t 0; infatti solo in tal caso si ha che il limite di sopra tende a zero. Dunque, l’ascissa di convergenza della trasformata di Laplace del gradino unitario `e proprio 0. Anzich´e applicare la definizione, `e spesso possibile determinare una trasformata facendo riferimento a trasformate gi` a note e applicando le propriet` a della trasformata stessa. Vediamo due esempi.

Esempio 2.3 Il segnale δ−1 (t − T ) non `e altro che un gradino unitario il cui istante di inizio non `e 0 ma T , per cui la sua trasformata di Laplace pu` o essere calcolata a partire da quella del gradino e applicando la propriet` a di traslazione in t L[δ−1 (t − T )] = L[δ−1 (t)]e−sT =

1 −sT e . s

L’esempio seguente riveste particolare importanza nell’analisi dei sistemi dinamici LTI, per cui si invita il lettore a porre particolare attenzione.

Esempio 2.4 Determiniamo la trasformata del segnale esponenziale eat δ−1 (t), con esponente in generale complesso, cio`e a ∈ C. Per la propriet` a di traslazione in s applicata alla trasformata del gradino si ha L[eat δ−1 (t)] = L[δ−1 (t)]|s=s−a =

1 . s−a

Se, in particolare a ∈ R− , la funzione del tempo `e decrescente (converge asintoticamente e zero) e la sua trasformata di Laplace presenta una singolarit` a nel semipiano sinistro del piano complesso. Mentre, se a ∈ R+ , la funzione del tempo `e crescente (diverge asintoticamente) e la singolarit` a della sua trasformata di Laplace stavolta giace nel semipiano destro del piano complesso. Vediamo ora un’altra coppia di trasformate notevoli, di uso molto frequente nelle applicazioni.

50

Capitolo 2. Analisi dei sistemi a tempo continuo

Esempio 2.5 Calcoliamo la trasformata di un segnale sinusoidale ejω0 t − e−jω0 t ] = per la linearit` a 2j 1 1 = L[δ−1 (t)ejω0 t ] − L[δ−1 (t)e−jω0 t ] = per la traslaz. in s 2j 2j 1 1 1 1 = − = 2j s − jω0 2j s + jω0 1 2jω0 ω0 = = 2 2 2 2j s + ω0 s + ω02

L[sin(ω0 t)δ−1 (t)] = L[δ−1 (t)

che `e analitica per ogni s con parte reale positiva, infatti le sole singolarit` a della funzione F (s) sono due poli sull’asse immaginario in ±jω0 , dunque l’ascissa di convergenza `e ancora una volta 0. Con passaggi del tutto analoghi si trova che la trasformata del coseno `e pari a L[cos(ω0 t)δ−1 (t)] =

1 1 s L[δ−1 (t)ejω0 t ] + L[δ−1 (t)e−jω0 t ] = 2 2 2 s + ω02

la cui ascissa di convergenza `e ancora 0. Prima di introdurre la trasformata di Laplace unilatera, `e opportuno accennare al calcolo della trasformata di Laplace di una distribuzione 5 molto particolare, cio`e di una funzione generalizzata che riveste particolare importanza in diversi campi dell’Ingegneria. Consideriamo la seguente successione di funzioni finestra wn (t) =

(

1 n se |t| ≤ 2n 0 altrimenti

` facile verificare rappresentata in Fig. 2.2 per diversi valori del parametro n. E che tale successione gode delle tre propriet` a • l’area sottesa dal grafico della funzione `e pari a 1, cio`e Z

+∞

−∞

wn (t) dt = 1,

∀n ∈ N

• il valore (massimo) in t = 0 delle wn (t) tende all’infinito per n → +∞, cio`e lim wn (0) = +∞

n→+∞ 5

Per una definizione rigorosa del termine distribuzione si faccia riferimento, ad esempio, a [5].

2.1. La trasformata di Laplace

51 wn (t) 4

n=4

2

n=2

1

− 12

− 14 − 18

n=1 1 8

1 4

1 2

t

Figura 2.2: Approssimazioni dell’impulso di Dirac • il grafico delle wn (t) si “assottiglia” al crescere di n, cio`e lim wn (t0 ) = 0,

n→+∞

∀t0 6= 0

ovvero, la successione converge puntualmente a 0 per t 6= 0. Dall’analisi di tali propriet` a si intuisce come il limite di questa successione di funzioni non possa essere una funzione ordinaria, in quanto dotata di integrale finito ma nulla quasi ovunque6 , infatti in 0 non `e definita. Per formalizzare un comportamento di questo genere occorrerebbe introdurre la teoria dei funzionali lineari, ma in questa sede ci limiteremo a definire la distribuzione delta di Dirac o impulso di Dirac, indicata col simbolo δ(t), proprio come il limite della successione di funzioni prima considerata. Un’importante propriet` a della delta di Dirac `e la cosiddetta propriet` a del campionamento Proposizione 2.2 Se f (t) `e una funzione continua e derivabile in 0, si ha δ(t)f (t) = f (0)δ(t) . da cui, per la propriet` a che

R +∞ −∞

Z

(2.4)

δ(t)dt = 1, si ha pure

+∞

δ(t)f (t)dt = f (0) .

(2.5)

−∞

6 Con la locuzione “quasi ovunque” si intende “dovunque tranne su un insieme di misura nulla”.

52

Capitolo 2. Analisi dei sistemi a tempo continuo

Esempio 2.6 In base alla Proposizione 2.2 `e facile calcolare la trasformata di Laplace dell’impulso Z +∞

L[δ(t)] =

δ(t)e−st dt = e−0s = 1

−∞

analitica in tutto C, che quindi `e il suo dominio di convergenza. Vediamo ora che relazione esiste tra l’impulso unitario e il gradino unitario. Dalla propriet` a del campionamento discende che Z

t

δ(τ )dτ =

−∞

(

0 1

t 0. Ci` o porta alla definizione della cosiddetta trasformata di Laplace unilatera L+ [f (t)] =

Z

+∞

0

f (t)e−st dt .

(2.8)

La differenza con la trasformata di Laplace bilatera risiede nel fatto che la definizione (2.8) non porta in alcun conto la condizione iniziale sul segnale f (t) da trasformare e cio`e sul limite f (0− ) = lim f (t) . t→0−

Quando tale valore `e nullo, le due definizioni sono equivalenti per segnali nulli per t < 0, e le propriet` a della trasformata unilatera e bilatera coincidono. In generale, tuttavia, alcune propriet` a vanno enunciate in maniera opportuna. • Derivata in t

L

+





d f (t) = sF (s) − f (0− ) dt

54

Capitolo 2. Analisi dei sistemi a tempo continuo

Problema nel dominio del tempo

L

Integrazione eq. diff.li

Soluzione nel dominio del tempo

L−1

Problema nel dominio di Laplace

Soluzione Soluzione nel eq. algebriche dominio di Laplace

Figura 2.4: Schema di soluzione di equazioni differenziali • Convoluzione8 L+

Z

0

t



f (t − τ )g(τ )dτ = F (s)G(s)

D’ora in poi useremo sempre la trasformata unilatera (2.8).

2.2

Risposta dei sistemi lineari tempo invarianti

Definita la trasformata di Laplace, siamo ora in grado di affrontare il problema posto nel capitolo precedente: calcolare la risposta di un sistema LTI ad un assegnato segnale di ingresso e con assegnate condizioni iniziali. Abbiamo gi` a visto che se di un sistema dinamico si conosce lo stato ad un generico istante di tempo t0 e l’ingresso a partire da quell’istante di tempo, `e possibile determinarne l’evoluzione negli istanti di tempo successivi9 . Per questo motivo, nel seguito analizzeremo sempre e solo il problema della determinazione della risposta di sistemi LTI a segnali nulli per t < 0, prima facendo l’ipotesi che le condizioni iniziali siano nulle e poi tenendo conto anche di queste ultime. Determinare la risposta di un generico sistema dinamico equivale a determinare la soluzione di un’equazione (o, pi` u in generale, di un sistema di equazioni) differenziale con assegnate condizioni iniziali. Se il sistema `e LTI tale equazione `e lineare a coefficienti costanti, e in questo paragrafo studieremo un metodo abbastanza generale per la risoluzione di questo tipo di equazioni basato sull’uso della trasformata di Laplace. 8

L’integrale tra parentesi coincide con l’integrale di convoluzione gi` a definito se le due funzioni sono entrambe nulle per t < 0. 9 Assumeremo, dunque, come origine dell’asse dei tempi l’istante nel quale sia noto lo stato del sistema, cio`e t0 = 0.

2.2. Risposta dei sistemi lineari tempo invarianti

55

La propriet`a di derivazione in t ci dice che nel dominio di Laplace le equazioni differenziali diventano algebriche, quindi la nostra strada sar` a quella rappresentata in Fig. 2.4. Anzich´e integrare direttamente le equazioni differenziali, convertiremo il problema dal dominio del tempo a quello di Laplace, passando dalle variabili u(t), x(t) e y(t) alle corrispondenti trasformate U (s), X(s) e Y (s), quindi lo risolveremo nel dominio di Laplace calcolando con semplici passaggi algebrici Y (s), ed eventualmente X(s), e infine, antitrasformando, torneremo nel dominio ` evidente che del tempo, ottenendo la soluzione y(t), ed eventualmente x(t). E l’unico limite di tale metodo consiste nell’ipotizzare che i segnali di ingresso siano trasformabili secondo Laplace e che siamo in grado di calcolarne la trasformata. Ad esempio, data l’equazione differenziale lineare a coefficienti costanti y (n) + a1 y (n−1) + · · · + an−1 y˙ + an y = f (t) con condizioni iniziali tutte nulle, cio`e y (k) (0) = 0, k = 0, . . . , n − 1, trasformando ambo i membri secondo Laplace e applicando iterativamente la propriet` a di derivata in t si ottiene l’equazione algebrica Y (s)sn + a1 Y (s)sn−1 + · · · + an−1 Y (s)s + an Y (s) = F (s) la cui soluzione pu` o calcolarsi una volta nota la trasformata del segnale di ingresso F (s) come F (s) Y (s) = n . n−1 s + a1 s + · · · + an−1 s + an

Per calcolare, infine, la soluzione nel dominio del tempo y(t) occorre antitrasformare la soluzione nel dominio di Laplace Y (s). Un tale procedimento richiede, come si vede, due passi fondamentali, un primo passo di trasformazione secondo Laplace e un successivo passo di antitrasformazione. Se alcuni esempi del primo sono gi` a stati affrontati, nulla si `e ancora detto riguardo al secondo problema. Dato che nella pratica la maggior parte dei segnali di ingresso ha per trasformata una funzione razionale fratta e visto che, come si intuisce gi` a dall’esempio e come vedremo pi` u in dettaglio nel seguito, le operazioni algebriche di soluzione nel dominio di Laplace coinvolgono sempre e solo funzioni razionali fratte, sar` a di interesse per questo corso la sola antitrasformazione di funzioni razionali fratte, cio`e del tipo Y (s) =

n(s) d(s)

dove n(s) e d(s) sono polinomi nella variabile complessa s a coefficienti reali. Per il teorema fondamentale dell’algebra le radici di tali polinomi possono essere reali e/o a coppie complesse e coniugate, in numero pari al grado del polinomio stesso. Le radici di d(s) si dicono poli della funzione razionale fratta, mentre le radici di n(s) si dicono zeri.

56

2.2.1

Capitolo 2. Analisi dei sistemi a tempo continuo

Antitrasformazione delle funzioni razionali fratte

Il caso pi` u semplice `e quello in cui la funzione da antitrasformare abbia un denominatore d(s) con una sola radice reale in p, cio`e Y (s) =

k . s−p

Ricordando la trasformata dell’Esempio 2.4 si deduce che l’antitrasformata cercata `e y(t) = kept δ−1 (t) . A questo caso banale `e possibile ricondurre anche il caso pi` u complesso in cui d(s) abbia pi` u radici semplici reali; `e sufficiente riferirsi allo sviluppo in fratti semplici della funzione razionale fratta, cio`e Y (s) =

n X i=1

ri , s − pi

(2.9)

dove n `e il grado del denominatore d(s) le cui n radici sono pi e ri sono i cosiddetti residui, calcolabili in questo caso come 

ri = (s − pi )

n(s) d(s)



, i = 1, . . . , n .

(2.10)

s=pi

Applicando la propriet` a di linearit` a e con riferimento al risultato precedente `e ovvio trovare che l’antitrasformata cercata `e y(t) =

n X i=1

ri epi t δ−1 (t) .

(2.11)

Esempio 2.8 Risolviamo la seguente equazione differenziale del secondo ordine, con condizioni iniziali nulle y¨ + 5y˙ + 6y = u(t) con ingresso u(t) = δ(t) − 3 δ−1 (t). Trasformando secondo Laplace si ottiene Y (s) =



1 3 1− 2 s + 5s + 6 s



=

(s2

s−3 . + 5s + 6)s

Come si vede, il denominatore di terzo grado ha tre radici in 0, −2 e −3, per cui la Y (s) si scompone in fratti semplici come Y (s) =

r1 r2 r3 + + s s+2 s+3

2.2. Risposta dei sistemi lineari tempo invarianti

57

dove i residui sono calcolabili applicando la (2.10) 

s−3 r1 = (s + 2)(s + 3)





1 s−3 = − , r2 = 2 s(s + 3) s=0





5 s−3 = , r3 = s(s + 2) s=−2 2



= −2

s=−3

Antitrasformando, la soluzione dell’equazione nel dominio del tempo `e 



1 5 y(t) = − + e−2t − 2e−3t δ−1 (t) . 2 2

Consideriamo ora il caso in cui i poli siano ancora semplici, ma non necessariamente reali. In tal caso lo sviluppo in fratti semplici `e ancora del tipo (2.9), ma saranno presenti anche poli e residui complessi. In particolare, dato che i polinomi n(s) e d(s) sono sempre a coefficienti reali, `e possibile dimostrare che sia i poli che i corrispondenti residui appaiono sempre a coppie complesse e coniugate. Prendiamo allora in esame il problema dell’antitrasformazione della generica coppia r∗ r + Y (s) = s − p s − p∗ la cui corrispondente funzione del tempo `e, come al solito 

y(t) = rept + r ∗ ep

∗t



δ−1 (t).

Per ottenere un’espressione contenente solo numeri reali, consideriamo la rappresentazione cartesiana del polo p = α + jω e quella polare del residuo r = ρejϕ , che sostituite nella relazione precedente danno 







y(t) = ρ ejϕ e(α+jω)t + e−jϕ e(α−jω)t δ−1 (t) = ρeαt ej(ωt+ϕ) + e−j(ωt+ϕ) δ−1 (t) che, applicando le formule di Eulero, si riscrive come y(t) = 2ρeαt cos(ωt + ϕ)δ−1 (t). Generalizzando questo risultato, `e possibile ottenere la formula di antitrasformazione di una funzione razionale fratta con m coppie di poli complessi e coniugati semplici e n − 2m poli reali semplici y(t) =

n−2m X i=1

pi t

ri e

+2

m X i=1

αi t

ρi e

!

cos(ωi t + ϕi ) δ−1 (t)

(2.12)

dove pi sono i poli reali, i cui corrispondenti residui ri sono ancora dati dalla (2.10), αi e ωi sono parte reale e parte immaginaria dell’i-ma coppia di poli

58

Capitolo 2. Analisi dei sistemi a tempo continuo

complessi e coniugati, e infine ρi e ϕi sono modulo e argomento dell’i-mo residuo complesso e calcolabili con le formule ρi

  n(s) = (s − αi − jωi ) d(s) s=α

i +jωi



ϕi = arg

(s − αi − jωi )

n(s) d(s)





(2.13) i = 1, . . . , m

s=αi +jωi

!

.

(2.14)

Esempio 2.9 Calcoliamo la soluzione dell’equazione differenziale con condizioni iniziali nulle y¨ − 2y˙ + 2y = δ−1 (t) .

Passando nel dominio di Laplace si ottiene la soluzione Y (s) =

1 r1 r2 r2∗ = + + , − 2s + 2) s s−1−j s−1+j

s(s2

dove i residui sono pari a 

r1 = |r2 |

1 2 s − 2s + 2



=

1 2

s=0   1 1 = = √ s(s − 1 + j) s=1+j 2 2 !  

arg(r2 ) = arg

1 s(s − 1 + j)

s=1+j

3 =− π 4

e quindi la soluzione cercata `e y(t) =





1 1 3 + √ et cos t − π 2 4 2



δ−1 (t) .

Non rimane che affrontare il caso pi` u generale di poli multipli. A tale scopo `e utile richiamare dall’Appendice C la trasformata notevole L





tn at 1 e δ−1 (t) = . n! (s − a)n+1

Iniziamo a trattare il caso di un polo reale di molteplicit` a k, cio`e una funzione razionale fratta che ammetta la scomposizione in fratti semplici del tipo Y (s) =

k X n(s) r1 rk−1 rk rl = + · · · + + = . k k 2 (s − p) (s − p) (s − p) s − p l=1 (s − p)k−l+1

2.2. Risposta dei sistemi lineari tempo invarianti

59

Per la propriet`a di linearit` a e per la trasformata notevole appena richiamata, abbiamo k X rl tk−l ept δ−1 (t) , y(t) = (k − l)! l=1 dove i residui si calcolano con la formula "

1 dl−1 n(s) (s − p)k rl = l−1 (l − 1)! ds d(s)

#

, l = 1, . . . , k .

(2.15)

s=p

Generalizzando al caso di una funzione razionale fratta con P denominatore di grado n e h poli reali di molteplicit` a ki , i = 1, . . . , h (si noti che hi=1 ki = n), abbiamo k

Y (s) =

h X i X n(s) ril = , k k k (s − p1 ) 1 (s − p2 ) 2 · · · (s − ph ) h (s − pi )ki −l+1 i=1 l=1

(2.16)

dove i residui si calcolano come "

1 dl−1 n(s) (s − pi )ki ril = l−1 (l − 1)! ds d(s)

#

s=pi

,

(

i = 1, . . . , h l = 1, . . . , ki

(2.17)

mentre la risposta nel dominio del tempo assume la forma y(t) =

ki h X X ril tki −l epi t i=1 l=1

(ki − l)!

δ−1 (t) .

(2.18)

Il caso pi` u generale possibile di poli multipli sia reali che complessi e coniugati pu` o essere affrontato in maniera analoga ma qui non verr` a riportato, solo che la funzione del tempo che si otterr` a antitrasformando conterr` a sia termini esponenziali che coseni moltiplicati per potenze di t. Inoltre, abbiamo sempre considerato funzioni razionali fratte con grado del numeratore minore o uguale del grado del denominatore (per un motivo che sar` a chiaro tra breve), ma nel caso ci` o non sia vero, la soluzione conterr` a termini impulsivi e derivate successive della funzione impulsiva, che per` o non abbiamo definito. Preferiamo, invece, presentare due esempi riepilogativi. Esempio 2.10 Si calcoli la soluzione dell’equazione differenziale con condizioni iniziali nulle y¨ + 2y˙ + y = e−2(t−5) δ−1 (t − 5). Ricordando la propriet` a di traslazione in t, nel dominio di Laplace la soluzione `e Y (s) =

1 e−5s = (s + 1)2 (s + 2)





r2 r11 r12 + + e−5s . 2 (s + 1) s+1 s+2

60

Capitolo 2. Analisi dei sistemi a tempo continuo

I residui associati al polo reale doppio in −1 sono dati dalla (2.17) r11 =



1 s+2



= 1,

r12 =

s=−1



d 1 ds s + 2



s=−1

= −1 ,

mentre, il residuo associato al polo reale semplice in −2 si ottiene applicando la (2.10) 

1 r2 = (s + 1)2



=1 s=−2

e quindi la soluzione cercata, riapplicando la propriet` a di traslazione in t, vale 





y(t) = te−t − e−t + e−2t δ−1 (t)





= (te−(t−5) − 6e−(t−5) + e−2(t−5) δ−1 (t−5)

t=t−5

Concludiamo questo lungo paragrafo sull’antitrasformazione delle funzioni razionali fratte con un esempio pi` u complesso. Esempio 2.11 L’equazione da risolvere sia y (4) + 8y (3) + 26¨ y + 40y˙ + 25y = δ−1 (t). Passando nel dominio di Laplace si ottiene la soluzione 1 1 = Y (s) = s(s4 + 8s3 + 26s2 + 40s + 25) s(s2 + 4s + 5)2 che scomposta in fratti semplici `e Y (s) =

∗ ∗ r1 r21 r22 r21 r22 + + + + . s (s + 2 − j)2 s + 2 − j (s + 2 + j)2 s + 2 + j

Applicando la (2.10) si ottiene il residuo reale r1 =



1 2 (s + 4s + 5)2



= s=0

1 25

mentre, applicando la (2.17) si ottengono i residui complessi10 √   1 5 j0.46 r21 = = e 2 s(s + 2 + j) s=−2+j 20 e r22



d 1 = ds s(s + 2 + j)2



= s=−2+j



2 j1.71 e 10

e quindi l’antitrasformata vale ! √ √ 1 5 −2t 2 −2t y(t) = + te cos (t + 0.46) + e cos (t + 1.71) δ−1 (t). 25 10 5 10 Si ricorda che la fase di un numero complesso va espressa in radianti per poterla sommare alla variabile temporale nell’argomento del coseno.

2.2. Risposta dei sistemi lineari tempo invarianti

2.2.2

61

La funzione di trasferimento

Finora abbiamo visto come `e possibile risolvere una generica equazione differenziale lineare a coefficienti costanti e condizioni iniziali nulle tramite l’ausilio della trasformata di Laplace. Tuttavia, il problema che ci eravamo posti era quello di determinare la risposta nell’uscita ed eventualmente nello stato di un generico sistema LTI con assegnate condizioni iniziali e sottoposto ad un generico segnale ` chiaro quindi che occorre trasferire nel dominio di Laplace il condi ingresso. E cetto stesso di sistema dinamico, cio`e, come nel dominio del tempo un sistema dinamico `e stato rappresentato nella forma ingresso–uscita o nella forma spazio di stato, cos`ı ora, occorre trovare un modo per caratterizzare il comportamento del sistema nel dominio di Laplace. Iniziamo con il considerare un sistema LTI ad un ingresso ed una uscita (SISO) la cui rappresentazione ingresso–uscita, gi`a vista nel Capitolo 1, `e y (n) + a1 y (n−1) + · · · + an−1 y˙ + an y = b0 u(n) + b1 u(n−1) + · · · + bn−1 u˙ + bn u . Abbiamo gi` a detto che la risposta del sistema si ottiene risolvendo questa equazione differenziale tenendo conto delle condizioni iniziali assegnate. Per ora, supponiamo che le condizioni iniziali siano nulle, allora trasformando secondo Laplace, in virt` u della propriet` a di derivazione nel tempo, si ottiene 



sn + a1 sn−1 + · · · + an−1 s + an Y (s) = 



= b0 sn + b1 sn−1 + · · · + bn−1 s + bn U (s) da cui si vede che ci` o che mette in relazione ingresso e uscita del sistema non `e altro che il rapporto di polinomi W (s) =

Y (s) b0 sn + b1 sn−1 + · · · + bn−1 s + bn = n . U (s) s + a1 sn−1 + · · · + an−1 s + an

(2.19)

La funzione W (s) prende il nome di funzione di trasferimento (f.d.t.) del sistema e costituisce a tutti gli effetti una rappresentazione ingresso–uscita del sistema stesso. Inoltre, da un punto di vista operativo, riveste un’importanza notevole, visto che permette di ricavare con estrema facilit` a la trasformata dell’uscita corrispondente ad un dato ingresso u(t). Infatti, vale la seguente Proposizione 2.4 Dato un sistema LTI con funzione di trasferimento W (s) e data la trasformata di Laplace dell’ingresso U (s), nell’ipotesi di condizioni iniziali nulle, la trasformata di Laplace dell’uscita Y (s) si pu` o ottenere dalla relazione Y (s) = W (s)U (s) .

(2.20)

Questo metodo basato sulla trasformata di Laplace, per come `e stato presentato, sembra non permettere il calcolo della risposta del sistema quando le condizioni iniziali non sono nulle. Invece, nel caso in cui siano assegnate le condizioni

62

Capitolo 2. Analisi dei sistemi a tempo continuo

iniziali in termini di valori dell’uscita e delle sue derivate successive nell’istante iniziale, sarebbe sufficiente applicare il teorema di derivazione nel tempo scritto nella sua forma pi` u generale h

i

L f (n) (t) = sn F (s) −

n X

sn−k f (k−1) (0− )

k=1

Tale procedimento `e seguito, ad esempio, in [4], ma qui si preferir` a adottare un metodo alternativo che fa uso della rappresentazione i–s–u del sistema. Ci` o in quanto `e pi` u facilmente generalizzabile al caso di sistemi MIMO e perch´e nella pratica `e spesso impossibile conoscere le condizioni iniziali in termini di derivate successive dell’uscita, mentre `e pi` u semplice conoscerle in termini di valori iniziali assunti dalle variabili di stato, in quanto molto spesso esse rappresentano grandezze fisiche e quindi misurabili, al contrario delle derivate successive dell’uscita. A tale scopo richiamiamo la rappresentazione del sistema in spazio di stato x(t) ˙ = Ax(t) + Bu(t), y(t) = Cx(t) + Du(t)

x(0) = x0

(2.21) (2.22)

Trasformando secondo Laplace e ricordando la propriet` a di derivata in t della trasformata di Laplace unilatera, abbiamo sX(s) − x0 = AX(s) + BU (s) Y (s) = CX(s) + DU (s) e ricavando X(s) dalla prima X(s) = (sI − A)−1 BU (s) + (sI − A)−1 x0

(2.23)

e sostituendo nella seconda 



Y (s) = C(sI − A)−1 B + D U (s) + C(sI − A)−1 x0

(2.24)

si ottiene il risultato cercato, nel dominio di Laplace. Dall’analisi delle (2.23),(2.24) si evince che la risposta di un sistema LTI (tanto nello stato quanto nell’uscita) `e somma di due contributi. I primi termini delle due relazioni corrispondono al contributo alla risposta prodotto dall’applicazione del segnale di ingresso, o forzamento, da cui il nome di risposta forzata; i secondi termini, invece, tengono conto del contributo alla risposta prodotto dalle condizioni iniziali, il quale `e presente anche in assenza di forzamento, da cui il nome di evoluzione libera. Nelle sezioni successive effettueremo un’analisi dettagliata dei due contributi. Per ora, notiamo solo che confrontando la (2.24) nell’ipotesi di condizioni iniziali nulle con la (2.20), si vede che la funzione di trasferimento W (s) pu` o

2.2. Risposta dei sistemi lineari tempo invarianti

63

essere anche calcolata a partire dalle matrici che caratterizzano il sistema in spazio di stato come W (s) = C(sI − A)−1 B + D . (2.25)

` importante per` E o osservare che nel caso pi` u generale di sistema MIMO la f.d.t. `e in realt` a una matrice i cui elementi sono funzioni razionali fratte, con un numero di righe pari al numero delle uscite del sistema e un numero di colonne pari al numero degli ingressi del sistema. Ci` o non toglie che la relazione (2.20) `e ancora valida, solo che il prodotto `e da intendersi righe per colonne.

2.2.3

Poli e zeri dei sistemi LTI

Vediamo ora qualche propriet` a della f.d.t. e della cosiddetta matrice di transizione −1 Φ(s) = (sI − A) . Quest’ultima `e certamente una matrice di funzioni razionali fratte, come si deduce dall’equazione Φ(s) = (sI − A)−1 =

adj(sI − A) , det(sI − A)

(2.26)

dove det(sI − A) `e il polinomio caratteristico della matrice A (vedi Appendice B). Siccome il polinomio caratteristico di una matrice di dimensioni n × n `e di grado n, mentre l’aggiunta di (sI − A) `e una matrice di polinomi di grado al pi` u n − 1. In generale, `e possibile che esistano dei fattori comuni a tutti gli elementi dell’aggiunta e al polinomio caratteristico, fattori che possono dunque essere semplificati riducendo il grado del polinomio a denominatore. Si definisce polinomio minimo della matrice A il polinomio che si ottiene dal polinomio caratteristico dopo aver semplificato tutti i fattori comuni con gli elementi dell’aggiunta. In definitiva, gli elementi di Φ(s) saranno tutte funzioni razionali fratte con denominatore di grado m e numeratore di grado al pi` u m − 1, dove m `e il grado del polinomio minimo di A.

Esempio 2.12 Calcoliamo polinomio caratteristico e polinomio minimo della matrice identit` a di ordine 3 



s−1 0 0   p(I) = det(sI − I) = det  0 s−1 0  = (s − 1)3 0 0 s−1 per trovare il polinomio minimo calcoliamo l’aggiunta di (sI − I) 







s−1 0 0 (s − 1)2 0 0     adj  0 s−1 0 = 0 (s − 1)2 0  2 0 0 s−1 0 0 (s − 1)

64

Capitolo 2. Analisi dei sistemi a tempo continuo

per cui `e evidente che tra il polinomio caratteristico e ciascun elemento dell’aggiunta vi `e in comune il fattore (s − 1)2 , e di conseguenza il polinomio minimo di I `e s − 1. Risulta chiaro che ci` o `e valido per la matrice identit` a di ordine qualunque. Gli elementi di W (s) = CΦ(s)B + D, invece, saranno tutte funzioni razionali fratte in cui il grado del denominatore `e m, mentre il grado del numeratore dipende dalla matrice D; se D = 0 allora questo grado sar` a al pi` u m − 1, altrimenti potranno esserci anche numeratori di grado m. In ogni caso, il grado del numeratore sar` a sempre minore o uguale a quello del denominatore, anche in presenza di cancellazioni, e di conseguenza risulter` a finito il limite lim W (s) .

s→∞

Tutti i sistemi fisicamente realizzabili godono di questa propriet` a, mentre quelli per cui essa non `e soddisfatta si dicono sistemi dinamici impropri e sono puramente fittizi. Quelli per i quali il limite di cui sopra `e nullo si dicono strettamente propri 11 . Le radici del polinomio a numeratore della f.d.t. si dicono zeri del sistema12 , mentre le radici del denominatore si dicono poli del sistema e, data l’espressione della f.d.t. (2.25), sono anche le radici del polinomio caratteristico di (sI − A), cio`e gli autovalori (vedi Appendice B) della matrice dinamica13 A. In realt` a quest’ultima affermazione non `e a rigori esatta, in quanto nel calcolo della (2.25) potrebbero esserci delle cancellazioni, e quindi alcuni autovalori della matrice dinamica potrebbero non essere poli del sistema. Infatti, a valle delle semplificazioni, il denominatore della f.d.t. non ammetterebbe pi` u quelle radici. Quando tale eventualit` a si verifica, vuol dire che nel sistema esiste una parte non controllabile o una parte non osservabile, cos`ı come le abbiamo definite in maniera intuitiva nel capitolo precedente. Per fissare le idee, riprendiamo l’Esempio 1.9,1.7. Esempio 2.13 Abbiamo gi` a visto che il sistema x˙ =

−3 0 2 −4

!

x+

 

0 1

u

y = ( 1 1 )x

presenta una parte non controllabile. Applicando la (2.25), la sua f.d.t. `e W (s) = cT (sI − A)−1 b = 11

s+3 1 = (s + 3)(s + 4) s+4

In tal caso, nell’ espressione (2.19) della f.d.t. deve necessariamente risultare b0 = 0. Tale definizione `e per` o limitata al caso di sistemi SISO, nel caso MIMO la questione `e molto pi` u complessa ed esula dagli scopi di questo corso. 13 Si pu` o altres`ıdimostrare che ogni radice del polinomio caratteristico `e radice anche del polinomio minimo. 12

2.2. Risposta dei sistemi lineari tempo invarianti

65

e come si vede l’autovalore −3 `e cancellato da uno zero e il sistema presenta un solo polo in −4. L’esempio mostra come la presenza di una parte non controllabile nel sistema determina il cosiddetto fenomeno della cancellazione nel calcolo della sua f.d.t. Tuttavia, non `e vero il viceversa, cio`e se nella funzione di trasferimento di un sistema LTI si verifica il fenomeno della cancellazione non `e detto che il sistema non sia controllabile. Questo perch´e la f.d.t. `e solo una rappresentazione i–u del sistema e non ci d` a informazioni sufficienti sulla sua struttura interna. Per convincersene si consideri il seguente esempio. Esempio 2.14 Dato il sistema LTI in forma canonica di controllo x˙ = y = (1

0 1 −2 −3

!

x+

0 1

!

u

1 )x .

Nel capitolo precedente abbiamo detto che per costruzione una realizzazione in forma canonica di controllo non pu` o presentare parti non controllabili (poich´e l’ingresso agisce su ogni variabile di stato). Ciononostante, nella sua funzione di trasferimento si verifica una cancellazione, infatti W (s) = cT (sI − A)−1 b =

s+1 1 = . (s + 1)(s + 2) s+2

Si pu` o dimostrare che in tal caso il sistema `e non osservabile, nel senso che alcune variabili di stato non influenzano l’uscita. A questo punto appaiono indispensabili degli strumenti che ci consentano ` di determinare le propriet` a di controllabilit` a e osservabilit` a di un sistema. E evidente che tali strumenti devono basarsi sulla rappresentazione i–s–u del sistema ottenuta applicando le leggi della fisica ai vari sottosistemi che compongono il sistema originario e non su quella ottenuta da una rappresentazione i–u che non conserva la struttura interna del sistema. Supposte note le matrici (A, B, C, D) di tale rappresentazione i–s–u, si pu` o dimostrare che valgono le seguenti propriet` a. Proposizione 2.5 Un sistema di ordine n risulta controllabile se e solo se il rango della matrice di controllabilit` a C = (B

AB

A2 B

···

An−1 B )

(2.27)

`e massimo (e quindi pari a n). Si noti che la matrice C `e quadrata nel caso di sistemi con un solo ingresso, per cui si pu` o affermare che un sistema ad un solo ingresso risulta controllabile se e solo se det(C) 6= 0.

66

Capitolo 2. Analisi dei sistemi a tempo continuo

Proposizione 2.6 Un sistema di ordine n risulta osservabile se e solo se il rango della matrice di osservabilit` a 



C  CA      O =  CA2    ..   . n−1 CA

(2.28)

`e massimo (e quindi pari a n). Si noti che la matrice O `e quadrata nel caso di sistemi con una sola uscita, per cui si pu` o affermare che un sistema ad una sola uscita risulta osservabile se e solo se det(O) 6= 0. Esempio 2.15 Verifichiamo che il sistema dell’Esempio 2.13 sia non controllabile, calcolando la sua matrice di controllabilit` a C=

0 0 1 −4

!

.

Il rango `e 1 < 2, dunque, come avevamo gi` a osservato, il sistema risulta non controllabile. Verifichiamo invece che il sistema dell’Esempio 2.14 risulta controllabile ma non osservabile, calcolando le sue matrici di controllabilit` a e osservabilit` a. C=

0 1 1 −3

!

`e non singolare per cui il sistema `e controllabile, mentre O=

1 1 −2 −2

!

ha determinante nullo, per cui il sistema `e effettivamente non osservabile. In conclusione, i poli di un sistema, cio`e le radici del denominatore della f.d.t. ottenuta una volta effettuate tutte le cancellazioni, sono gli autovalori della sola parte controllabile e osservabile del sistema. D’ora in poi, se non diversamente indicato, considereremo sempre sistemi completamente controllabili e osservabili, per i quali i poli coincidono con gli autovalori della matrice dinamica. L’unica differenza `e che i poli avranno le stesse molteplicit` a degli autovalori della matrice dinamica come radici del polinomio minimo, ma non come radici del polinomio caratteristico.

2.2. Risposta dei sistemi lineari tempo invarianti

2.2.4

67

L’evoluzione libera e i modi di evoluzione

Nel paragrafo precedente abbiamo determinato la risposta di un sistema LTI nel dominio di Laplace, nello stato (2.23) e nell’uscita (2.24). Volendo pervenire ad un’espressione in forma chiusa della soluzione al sistema (2.21),(2.22) nel dominio del tempo, bisognerebbe calcolare in forma chiusa l’antitrasformata delle relazioni sopra richiamate. Iniziamo ad analizzare il termine di evoluzione libera nello stato Xl (s) = Φ(s)x0 .

(2.29)

Siccome la matrice di transizione `e una matrice di funzioni razionali fratte, la a certamente un vettore di funzioni razionali fratte. Per quanto funzione Xl (s) sar` visto nel Paragrafo 2.2.1, antitrasformando tali funzioni si ottengono funzioni del tempo che sono combinazioni lineari di termini del tipo tk ept ,

tk eαt cos(ωt),

k = 0, 1, 2, . . .

(2.30)

dove p `e la generica radice reale e α + jω `e la generica radice complessa del denou della (2.26), `e il polinomio minimo della matrice minatore di Xl (s) che, in virt` dinamica A. Ciascuno di questi termini `e detto modo proprio di evoluzione del sistema, intendendo con tale espressione la possibilit` a che il sistema ha di evolvere anche in assenza di sollecitazione esterna, ma solo in virt` u di condizioni iniziali non nulle sulle sue variabili di stato. I coefficienti della combinazione lineare sono i residui delle scomposizioni in fratti semplici. A questo proposito, osserviamo che tali coefficienti possono anche risultare nulli, ci` o significa che le condizioni iniziali scelte non sono in grado di eccitare tutti i modi propri del sistema. Per capire quando ci` o accade `e sufficiente ricordare le relazioni che ci consentono di calcolare i residui (2.10),(2.17), da cui si evince che il residuo si annulla se il polo `e anche zero del numeratore. Ricordando la definizione di esponenziale complesso (vedi Appendice A), ciascuno dei termini pu` o essere espresso nella forma generale tk eλt , dove λ `e il generico autovalore della matrice dinamica. Dunque, ad ogni autovalore della matrice ` evidente che il tipo di dinamica `e associato un modo di evoluzione del sistema. E andamento nel tempo dell’evoluzione libera di un sistema dipende esclusivamente dalle caratteristiche intrinseche del sistema stesso e non dalle sollecitazioni che possono essergli applicate dall’esterno. Naturalmente, esattamente gli stessi termini compariranno nell’andamento temporale della risposta in evoluzione libera nell’uscita, visto che questa si ottiene antitrasformando l’espressione Yl (s) = C(sI − A)−1 x0 = CΦ(s)x0 ,

(2.31)

anch’essa costituita da un vettore di funzioni razionali fratte14 , il cui denominatore `e sempre il polinomio minimo della matrice dinamica. In particolare, a 14

Nel caso di sistemi SISO, Yl (s) = cT Φ(s)x0 sar` a una semplice funzione razionale fratta.

68

Capitolo 2. Analisi dei sistemi a tempo continuo

ciascun modo di evoluzione `e associato un andamento tipico che dipende solo dalla posizione nel piano complesso dell’autovalore corrispondente e dalla molteplicit` a dell’autovalore stesso. Dunque, anche nell’evoluzione libera nell’uscita yl (t) di un sistema LTI, compariranno termini del tipo (2.30), i cui andamenti tipici, in funzione della posizione degli autovalori di A nel piano complesso, sono riassunti graficamente in Fig. 2.5. Anticipiamo a questo punto un’osservazione che ci sar` a particolarmente utile in seguito. Se tutti i modi propri di un sistema sono convergenti (e ci` o accade evidentemente se e solo se tutti gli autovalori della matrice dinamica appartengono al semipiano sinistro del piano complesso) allora, comunque si scelgano le condizioni iniziali, l’evoluzione libera del sistema (sia nello stato che nell’uscita) tende asintoticamente a zero. Se invece esiste qualche autovalore della matrice dinamica nel semipiano destro, certamente esistono delle opportune condizioni iniziali tali da rendere divergente l’evoluzione libera del sistema. Dall’analisi dei modi relativi ad autovalori multipli, si evince che ci` o pu` o accadere se esiste qualche autovalore sull’asse immaginario ma con molteplicit` a maggiore di uno come radice del polinomio minimo. Se, invece, tale molteplicit` a `e unitaria, al pi` u l’evoluzione libera pu` o rimanere o costante nel tempo o essere combinazione lineare di funzioni sinusoidali. In sintesi vale la proposizione Proposizione 2.7 L’evoluzione libera di un sistema LTI `e • convergente a zero (comunque si scelgano le condizioni iniziali) se e solo se gli autovalori della matrice dinamica sono tutti a parte reale negativa. • limitata ma non convergente a zero (comunque si scelgano le condizioni iniziali) se e solo se la matrice dinamica ammette autovalori a parte reale negativa o nulla e questi ultimi hanno tutti molteplicit` a unitaria come radici del polinomio minimo. • divergente (con opportune condizioni iniziali) se e solo se la matrice dinamica ammette almeno un autovalore a parte reale positiva oppure almeno un autovalore a parte reale nulla con molteplicit` a maggiore di uno come radice del polinomio minimo.

Esempio 2.16 Dato il sistema massa-molla-smorzatore la cui rappresentazione i–s–u `e stata ricavata nell’Esempio 1.5, calcoliamo la sua evoluzione libera nello stato a partire da condizioni iniziali x1 (0) = 0.1 m e x2 (0) = 0 m/s. Con i seguenti valori dei parametri M = 1 kg, k = 100 N/m, β = 0 Ns/m (sistema privo di attrito), l’equazione di stato diventa x˙ =

0 1 −100 0

!

x+

 

0 1

u

2.2. Risposta dei sistemi lineari tempo invarianti

69

periodico

Im(s)

aperiodico divergente

aperiodico convergente

0

Re(s)

costante

pseudo-periodico divergente pseudo-periodico convergente Figura 2.5: Modi di evoluzione di un sistema a tempo continuo Nel dominio di Laplace, l’evoluzione libera si calcola con la (2.29) −1

Xl (s) = (sI − A)

x0 =

s −1 100 s

!−1 

0.1 0



=

0.1s s2 +100 −10 s2 +100

!

Il sistema ammette una coppia di autovalori complessi e coniugati a parte reale nulla, a cui corrisponde un andamento puramente sinusoidale. Per ottenere l’andamento effettivo delle due variabili di stato nel dominio del tempo dobbiamo antitrasformare le due funzioni razionali fratte ricavate. Ricordando le trasformate notevoli del seno e del coseno, otteniamo x1l (t) = 0.1 cos(10t) x2l (t) = − sin(10t) . Come si vede, il sistema evolve nonostante non sia applicato alcun forzamento esterno, e, p in particolare, oscilla all’ampiezza costante di 0.1 m con una pulsazione pari a k/M = 10 rad/s pari alla parte immaginaria dell’autovalore della matrice dinamica. Tale pulsazione `e detta pulsazione naturale del sistema massa-molla, in quanto `e l’unica pulsazione a cui il sistema pu` o oscillare in assenza di ingresso, qualunque siano le condizioni iniziali.

70

Capitolo 2. Analisi dei sistemi a tempo continuo

Calcoliamo ora l’evoluzione libera del sistema a partire dalle stesse condizioni iniziali ma con un coefficiente di attrito pari a β = 10 Ns/m. La matrice dinamica diventa 0 1 −100 −10

A=

!

per cui l’evoluzione libera vale −1

Xl (s) = (sI − A)

x0 =

0.1s+1 s2 +10s+100 −10 s2 +10s+100

!

che vanno poi antitrasformate x1l (t) = = x2l (t) = =









0.1s + 1 r r∗ −1 + L = L = s2 + 10s + 100 s + 5 − j8.66 s + 5 + j8.66 0.1155e−5t cos(8.66t − 0.52)     r∗ −10 r + L−1 2 = L−1 = s + 10s + 100 s + 5 − j8.66 s + 5 + j8.66 1.155e−5t cos(8.66t + π/2) −1

Come si vede, in presenza di attrito, i modi del sistema diventano pseudo-periodici convergenti (o smorzati) con pulsazione della parte periodica tanto pi` u vicina a quella naturale quanto pi` u basso `e il coefficiente di attrito. Nell’esempio abbiamo visto che per calcolare l’evoluzione libera di un sistema nel dominio del tempo basta antitrasformare le funzioni razionali fratte Xl (s) o Yl (s) calcolate mediante le (2.29),(2.31). Volendo pervenire ad un’espressione in forma chiusa generale per l’evoluzione libera di un sistema LTI nel dominio del tempo, occorre calcolare esplicitamente l’antitrasformata della matrice di transizione (sI − A)−1 . Si pu` o dimostrare che h

i

L[eAt ] = (sI − A)−1 ⇒ L−1 [Φ(s)] = L−1 (sI − A)−1 = eAt ,

(2.32)

dove la definizione rigorosa dell’esponenziale matriciale eAt `e riportata in Appen` possibile intuire che ci` dice B. E o `e vero come generalizzazione della trasformata notevole L[eat ] = (s − a)−1 , dove a pu` o essere considerata la matrice dinamica di un sistema del primo ordine. Allora l’evoluzione libera nello stato assume l’espressione notevole xl (t) = eAt x0 . (2.33) Per convincersi definitivamente che effettivamente la (2.33) sia l’evoluzione libera del sistema (2.21), basta verificare che essa verifica le condizioni iniziali e l’equazione di stato con u = 0 (evoluzione libera), cio`e il seguente sistema di equazioni differenziali con condizioni iniziali x˙ = Ax,

x(0) = x0 .

2.2. Risposta dei sistemi lineari tempo invarianti

71

Tenendo presente la definizione dell’esponenziale matriciale data dalla (B.5), abbiamo xl (0) =

"

# I + At + A + ··· 2! 2t

2

t=0

x0 = [I + 0 + 0 + · · ·]x0 = x0 ,

mentre, calcolando la derivata rispetto al tempo, abbiamo x˙ l (t) =

"

#

d At t t2 e x0 = A + 2A + 3A3 + · · · x0 = dt 2! 3 · 2! "

2t

= A I + At + A

2

2!

#

+ · · · x0 = AeAt x0 = Axl (t) .

Nota l’evoluzione libera dello stato, per calcolare l’evoluzione libera dell’uscita basta tener conto dell’equazione di uscita (2.22) (sempre con u = 0) e ottenere l’espressione (2.34) yl (t) = CeAt x0 .

2.2.5

L’evoluzione forzata e la risposta impulsiva

Passiamo ora ad analizzare la parte di evoluzione forzata della risposta dei sistemi LTI. Con riferimento alla (2.23), il termine di evoluzione forzata nello stato (cio`e la risposta del sistema a partire da condizioni iniziali nulle) nel dominio di Laplace `e dato da Xf (s) = (sI − A)−1 BU (s) . (2.35) Applicando la propriet` a di convoluzione della trasformata di Laplace unilatera e tenendo conto della (2.32), si ottiene la risposta forzata nello stato nel dominio del tempo Z t

xf (t) =

0

eA(t−τ ) Bu(τ )dτ,

t≥0

(2.36)

mentre, dall’antitrasformazione della evoluzione forzata nell’uscita Yf (s) = (C(sI − A)−1 B + D)U (s) = W (s)U (s)

(2.37)

si ottiene la risposta forzata nell’uscita nel dominio del tempo yf (t) = C

Z

0

t

eA(t−τ ) Bu(τ )dτ + Du(t),

t≥0.

(2.38)

Analizziamo la risposta forzata nel caso particolare di un ingresso impulsivo. Dalla relazione (2.37) si evince anche che se l’ingresso applicato al sistema `e di tipo impulsivo, cio`e u(t) = δ(t) per cui U (s) = 1, si ha che la trasformata dell’uscita coincide con la funzione di trasferimento; tale particolare risposta `e

72

Capitolo 2. Analisi dei sistemi a tempo continuo

detta risposta impulsiva e viene di solito indicata col simbolo w(t). A rigori, occorrerebbe precisare che la trasformata di Laplace della risposta impulsiva non pu` o ritenersi “uguale” alla f.d.t., in quanto quest’ultima `e sempre il rapporto delle trasformate di Laplace di due funzioni del tempo (uscita e ingresso del sistema), con le loro dimensioni, ma non `e la trasformata di Laplace di alcuna funzione del tempo, a rigori andrebbe sempre scritto W (s) = L[w(t)]/L[δ(t)] .

(2.39)

Nella pratica, trasformare secondo Laplace la risposta impulsiva `e semplicemente un metodo per calcolare la f.d.t., e, viceversa, antitrasformare quest’ultima consente di calcolare la riposta impulsiva. La risposta impulsiva gioca un ruolo fondamentale nella determinazione della risposta di un sistema LTI ad un generico ingresso, infatti, antitrasformando la relazione (2.20), tenendo conto della (2.39) e ricordando la propriet` a di convoluzione, si ha y(t) = w(t) ∗ u(t) =

Z

+∞

w(t − τ )u(τ )dτ =

−∞

Z

+∞

−∞

u(t − τ )w(τ )dτ .

(2.40)

Se poi la risposta impulsiva del sistema `e nulla per t < 0, cio`e il sistema `e causale e il segnale di ingresso `e applicato a partire da t = 0, allora occorre riferirsi alla propriet` a di convoluzione della trasformata di Laplace unilatera15 y(t) = w(t) ∗ u(t) =

Z

0

t

w(t − τ )u(τ )dτ =

Z

0

t

u(t − τ )w(τ )dτ .

(2.41)

In ogni caso, la risposta di un sistema LTI ad un generico ingresso (e con condizioni iniziali nulle) si ottiene come integrale di convoluzione con la risposta impulsiva del sistema. Per dare un’interpretazione alla risposta impulsiva, approssimiamo l’integrale di convoluzione tramite una somma finita su n termini ottenuti partizionando l’intervallo [0, t] in n intervalli di ampiezza ∆τ individuati dagli istanti di tempo τ 0 , τ 1 , . . . , τn y(t) =

Z

0

t

u(t − τ )w(τ )dτ ≃

n X i=1

u(t − τi )w(τi ) .

Questa formula pu` o essere interpretata come la sovrapposizione dei contributi che l’ingresso presente τi secondi prima fornisce all’uscita, ciascuno pesato tramite la risposta impulsiva. Dunque, la risposta impulsiva fornisce al sistema una sorta di “memoria” di quanto il sistema “ricorda” degli ingressi precedenti. Cos`ı un sistema con una risposta impulsiva che si esaurisce in breve tempo “ricorder` a” 15

Nel resto del capitolo si far` a riferimento sempre a sistemi causali.

2.2. Risposta dei sistemi lineari tempo invarianti

73

poco degli ingressi precedenti; viceversa, un sistema con una risposta impulsiva non trascurabile per intervalli di tempo lunghi fornir` a in un istante contributi all’uscita che dipendono fortemente dall’ingresso applicato anche molto tempo prima. Il caso estremo di un sistema con risposta impulsiva pari ad un impulso di Dirac di area K, quindi di durata nulla, in ogni istante avr` a un’uscita che dipende esclusivamente dall’ingresso applicato nello stesso istante. Un sistema siffatto, come abbiamo visto nel Capitolo 1, si dice istantaneo o algebrico o adinamico e, se lineare, altro non `e che un semplice guadagno di valore pari a K, difatti la sua ` interessante notare che se f.d.t. `e W (s) = L[w(t)]/L[δ(t)] = L[Kδ(t)] = K. E il sistema fosse stato non causale nella sommatoria avremmo dovuto considerare anche τi negativi e quindi avremmo trovato che l’uscita ad un certo istante t dipende anche da campioni dell’ingresso in istanti di tempo futuri (t − τi > t), cio`e il sistema oltre a “ricordare” deve anche “prevedere”, da cui il nesso con la propriet` a di causalit` a. Dal confronto tra l’equazione (2.39) con l’equazione (2.38) si deduce che l’espressione della risposta impulsiva di un sistema LTI. Ricordando che la risposta impulsiva nell’uscita altro non `e che l’antitrasformata della f.d.t., `e immediato trovare che w(t) = CeAt B + Dδ(t), t≥0 (2.42) da cui si evince che la risposta impulsiva di un sistema LTI non strettamente proprio (con D 6= 0) contiene termini impulsivi. Dalla (2.42) si vede anche che la risposta impulsiva `e combinazione lineare dei modi propri di evoluzione del sistema. Vediamolo con un esempio. Esempio 2.17 Dato il sistema SISO x˙ = y = (1

−1 0 0 −3

!

x+

 

5 1

u

2 )x + u

calcoliamone la risposta impulsiva tramite la (2.42)

w(t) = ( 1 = (1



2 )e 2)



−1 0

5e−t e−3t

0 −3





t

5 1



+ δ(t) = ( 1

2)



e−t 0

0 e−3t

 

5 1

+ δ(t)

+ δ(t) = 5e−t + 2e−3t + δ(t) ,

dove abbiamo sfruttato la (B.6) visto che A `e diagonale. Nel caso generale la A va prima diagonalizzata e, se ci` o non `e possibile, occorre utilizzare la forma generale di diagonalizzazione di una matrice, detta forma di Jordan. Tuttavia qui non verr` a trattata, in quanto, in virt` u della relazione che c’`e tra w(t) e W (s), la risposta impulsiva pu` o essere calcolata anche antitrasformando la f.d.t. e quindi non `e necessario

74

Capitolo 2. Analisi dei sistemi a tempo continuo

ricorrere all’espressione in forma chiusa direttamente nel dominio del tempo (2.42). Verifichiamolo nel caso in esame   7s + 17 w(t) = L−1 [W (s)] = L−1 [cT (sI − A)−1 b + d] = L−1 +1 = (s + 1)(s + 3)   5 2 = L−1 + + δ(t) = 5e−t + 2e−3t + δ(t) . s+1 s+3 Sull’equazione (2.37) `e possibile fare alcune interessanti considerazioni. Nel caso di sistemi SISO e nell’ipotesi che la trasformata di Laplace dell’ingresso U (s) sia una funzione razionale fratta, anche Yf (s) `e una funzione razionale fratta e quindi la sua antitrasformata sar` a una combinazione lineare di termini del tipo tk eλt , k = 0, 1, 2, . . ., dove λ `e la generica radice del denominatore di Yf (s). Con le seguenti posizioni W (s) =

nW (s) , dW (S)

U (s) =

nU (s) dU (s)

la Yf (s) pu` o essere riscritta nella forma Yf (s) =

nW (s)nU (s) , dW (s)dU (s)

(2.43)

per cui le radici del denominatore sono le radici del denominatore di W (s), cio`e i poli del sistema, e le radici del denominatore della trasformata di Laplace dell’ingresso. Di conseguenza, l’evoluzione forzata nel dominio del tempo sar` a una combinazione lineare dei modi propri del sistema, cio`e termini del tipo tk eλW t corrispondenti alle radici λW di dW (s) e dei modi propri dell’ingresso, cio`e termini del tipo tk eλU t corrispondenti alle radici λU di dU (s). Come abbiamo gi` a osservato per la risposta in evoluzione libera, anche nella risposta forzata i coefficienti della combinazione lineare di modi propri del sistema e dell’ingresso sono i residui della scomposizione in fratti semplici della (2.43). Di conseguenza, alcuni di questi possono risultare nulli, e in particolare saranno nulli quelli in corrispondenza dei poli che sono anche zeri del numeratore. Il lettore dovrebbe chiedersi a questo punto come `e possibile che ci` o accada se abbiamo definito la f.d.t. come la funzione razionale fratta che si ottiene dalla formula (2.25) una volta eseguite tutte le semplificazioni. La risposta `e che, osservando che nella (2.43) compare anche la trasformata di Laplace dell’ingresso, uno dei termini con residuo nullo pu` o essere quello corrispondente ad uno dei modi dell’ingresso che `e anche uno zero della f.d.t., tale evenienza `e la cosiddetta propriet` a bloccante degli zeri. Vediamo un esempio semplice. Esempio 2.18 Calcoliamo la risposta indiciale del sistema con f.d.t. s W (s) = 2 s + 3s + 2

2.2. Risposta dei sistemi lineari tempo invarianti

75

L’uscita nel dominio di Laplace vale 1 r1 r2 r3 + + Y (s) = W (s) = s s s+1 s+2 dove i residui si calcolano come r1 = [Y (s)s]s=0 = 0, r2 = [Y (s)(s + 1)]s=−1 = 1, r3 = [Y (s)(s + 2)]s=−2 = −1 e quindi la risposta nel dominio del tempo conterr` a solo i modi propri del sistema, in quanto il modo proprio dell’ingresso `e “bloccato” dallo zero nell’origine presente nella f.d.t. y(t) = (e−t − e−2t )δ−1 (t) Circa l’eventualit` a delle cancellazioni tra numeratore e denominatore della f.d.t., abbiamo gi` a detto che ci` o `e indice della presenza di una parte non controllabile o non osservabile del sistema. Anche se nella pratica tale eventualit` a pu` o considerarsi remota (accadrebbe solo se numeratore e denominatore avessero esattamente la stessa radice), ci possono essere dei casi in cui `e vero che non c’`e semplificazione, ma poli e zeri sono cos`ı vicini che il residuo corrispondente `e piccolo rispetto a tutti gli altri, cosicch´e il modo corrispondente ha un peso trascurabile nella combinazione lineare. Facciamo un esempio per chiarire questo caso. Esempio 2.19 Dato il sistema con f.d.t. W (s) =

s+b s+a

con a e b numeri reali qualunque, la sua realizzazione in forma canonica di osservazione `e x˙ = −ax + (b − a)u y = x+u Immaginiamo di applicare in ingresso un segnale cha sia funzione a sua volta dello stato del sistema, ad esempio della forma u(t) = −

c x(t) b−a

Con tale scelta, il sistema ha la nuova rappresentazione i–s–u x˙ = −(a + c)x b−a−c y = x b−a

Capitolo 2. Analisi dei sistemi a tempo continuo 1

1

0.8

0.8

0.6

0.6

x(t)

x(t)

76

0.4

0.4

0.2

0.2

0 0

2

4

6

8

0 0

10

2

4

0

0

−0.05

−0.5

−0.1 −0.15 −0.2 0

6

8

10

6

8

10

t

u(t)

u(t)

t

−1 −1.5

2

4

6 t

8

10

−2 0

2

4 t

Figura 2.6: Evoluzione libera e forzamento del sistema controllato nel caso b = 1.5 (sinistra) e nel caso b = 1.05 (destra) Si vede dunque che esiste sempre un valore della costante c tale da far assumere al polo del nuovo sistema un qualunque valore. Ci` o significa che con la scelta fatta dell’ingresso u, siamo in grado di portare lo stato del sistema ad assumere qualunque tipo di comportamento vogliamo. Naturalmente `e chiaro che ci` o `e possibile solo finch´e b 6= a, inoltre quanto pi` u b `e vicino ad a (cio`e lo zero `e vicino al polo del sistema), tanto pi` u l’ingresso deve crescere in ampiezza a parit` a di valori dello stato. Questo significa che occorre un forzamento pi` u elevato per modificare il comportamento dello stato. In Fig. 2.6, dove sono riportati gli andamenti dello stato (evoluzione libera a partire da x(0) = 1) e dell’ingresso per i valori dei parametri a = 1, c = 0.1 nei due casi b = 1.5 e b = 1.05, si nota che nel caso in cui lo zero `e pi` u vicino al polo, l’ingresso assume valori pi` u elevati, mentre gli andamenti dello stato sono identici. Un esempio meno astratto `e quello del controllo della dinamica laterale di un aeroplano.

Esempio 2.20 Il modello linearizzato della dinamica laterale del Boeing 767 pu` o

2.2. Risposta dei sistemi lineari tempo invarianti

77

2

Im(s)

1 0 −1 −2 −2

−1

0

1

Re(s)

Figura 2.7: Mappa poli-zeri della dinamica laterale di un Boeing 767 essere scritto nella forma    

x˙ = 







−0.0868 −1 −0.0391 0 0  −0.065  2.14 −0.228 0 −0.0204     x +  u    0 0 0 1 0 −4.41 0.334 0 −1.181 −2.11

dove il vettore delle variabili di stato assume il seguente significato fisico: x1 `e la velocit` a laterale, x2 `e la velocit` a di imbardata, x3 `e l’angolo di rollio e x4 `e la velocit` a di rollio, mentre l’ingresso u `e la coppia da applicare agli alettoni. Immaginando di assumere come uscita l’angolo di rollio, si ottiene la f.d.t. W (s) = −2.11

s2 + 0.3251s + 2.297 (s + 1.155)(s − 0.004583)(s2 + 0.3449s + 2.147)

dove si vede che la coppia di poli complessi e coniugati relativi alla dinamica dell’imbardata `e molto prossima ad una coppia di zeri (vedi Fig. 2.7), ci` o significa che se volessimo controllare l’angolo di imbardata agendo sugli alettoni avremmo bisogno di coppie molto elevate. Difatti negli aerei l’imbardata non viene controllata agendo sugli alettoni ma sul timone. Concludiamo questo paragrafo, riportando le formule esplicite per il calcolo della risposta di un sistema LTI nel dominio del tempo ottenute sommando evoluzione libera e forzata x(t) =

Z

t 0

y(t) = C

eA(t−τ ) Bu(τ )dτ + eAt x0 ,

Z

0

t

t≥0

eA(t−τ ) Bu(τ )dτ + Du(t) + CeAt x0 ,

(2.44) t≥0.

(2.45)

78

Capitolo 2. Analisi dei sistemi a tempo continuo

Per convincersi definitivamente che questa `e la soluzione del problema che ci eravamo posti, si lascia per esercizio al lettore il compito di sostituire le espressioni appena trovate nelle equazioni del sistema (2.21),(2.22) e verificare che tali equazioni sono soddisfatte16 . In ogni caso, il risultato delle ultime due espressioni consister` a sempre in combinazioni lineari di modi di evoluzione del sistema e modi propri dell’ingresso. Vediamo un esempio riepilogativo. Esempio 2.21 Consideriamo il sistema SISO del secondo ordine x˙ = y =



−2 0 1 −3 0 1



!

0 1

x+

!

u(t),

1 0

x(0) =

!

x

Vogliamo determinare la risposta al gradino unitario17 . Iniziamo col calcolare la matrice di transizione Φ(s) = (sI − A)−1 sI −

−2 0 1 −3

!!−1

=

s+2 0 −1 s + 3

!−1

1 = (s + 2)(s + 3)

s+3 0 1 s+2

!

Applicando la (2.23) troviamo la risposta nello stato nel dominio di Laplace 1 X(s) = (s + 2)(s + 3)

" 

s+3 0 1 s+2 

!

0 1

!



1 s+3 0 + 1 s + 2 s  1  s+2 

!

1 0

!#

s+3     1     =  = (s + 2)(s + 3)  s + 2   2s + 2 +1 s s(s + 2)(s + 3)

Si noti come nel calcolare la prima variabile di stato `e stata effettuata la semplificazione del termine s + 3 a numeratore e a denominatore della funzione razionale fratta che rappresenta la trasformata di Laplace della risposta nella prima variabile di stato. Antitrasformando il primo elemento del vettore dello stato si ha x1 (t) = e−2t δ−1 (t) che coincide, in effetti, con la sola evoluzione libera, come era prevedibile visto che la prima equazione del sistema ha la forma x˙ 1 (t) = −2x1 (t) 16

Rt

A tale scopo `e utile ricordare la formula di derivazione

d f (t, τ )dτ . 0 dt 17

d dt

Rt 0

f (t, τ )dτ = f (t, t) +

La risposta al gradino unitario a partire da condizioni iniziali nulle `e detta risposta indiciale.

2.3. Schemi a blocchi

79 u

G(s)

y

Figura 2.8: Schema a blocchi di un sistema dinamico ua ub

+ +

y



uc

Figura 2.9: Nodo sommatore o essere influenzato affatto dall’ingresso18 u(t). per cui l’andamento di x1 (t) non pu` Per calcolare l’antitrasformata della seconda variabile di stato occorre effettuare la decomposizione in fratti semplici X2 (s) =

1/3 1 4/3 2s + 2 = + − s(s + 2)(s + 3) s s+2 s+3

a cui corrisponde la funzione del tempo x2 (t) =





1 4 + e−2t − e−3t δ−1 (t). 3 3

Visto che l’equazione di uscita `e y(t) = x2 (t), la risposta nell’uscita `e gi` a stata trovata.

2.3

Schemi a blocchi

Nell’analisi dei sistemi lineari e stazionari costituiti da pi` u sottosistemi collegati tra loro in vario modo, `e spesso conveniente adoperare una rappresentazione grafica delle connessioni basata sui cosiddetti schemi a blocchi. Tale rappresentazione rende agevole il calcolo della funzione di trasferimento tra una data variabile di ingresso e una data variabile d’uscita, e quindi permette una rapida caratterizzazione di un sistema complesso. 18

Questo fatto `e legato strettamente alla semplificazione effettuata nei calcoli ed `e indicativo della presenza all’interno del sistema di una parte dello stato su cui l’ingresso non pu` o agire (cio`e una parte non controllabile), ma che evolve solo in virt` u dello stato iniziale.

80

Capitolo 2. Analisi dei sistemi a tempo continuo ya yb

u

yc Figura 2.10: Punto di diramazione u = ua

Ga (s)

ya = ub

Gb (s)

yb = y



u

Gb (s)Ga (s)

y

Figura 2.11: Connessione in serie o cascata Nella simbologia degli schemi a blocchi una variabile `e rappresentata da una freccia etichettata col nome della variabile stessa e un sistema `e rappresentato da un blocco, cio`e da un rettangolo al cui interno `e indicata la f.d.t. del sistema, dotato di una freccia entrante e una uscente rappresentative dell’ingresso e dell’uscita del sistema, rispettivamente. Cos`ı un sistema con funzione di trasferimento G(s) tra l’ingresso u e l’uscita y `e rappresentato dallo schema a blocchi di Fig. 2.8. Per poter rappresentare la connessione di sistemi sono necessari altri due elementi, il nodo sommatore e il punto di diramazione, rappresentati in Figg. 2.9, 2.10, rispettivamente, in due casi esemplificativi. Il primo va interpretato come rappresentativo della relazione y(t) = ua (t) + ub (t) − uc (t) , mentre il secondo equivale alle condizioni ya (t) = yb (t) = yc (t) = u(t) . In questa sede assumeremo che tutti i sistemi negli schemi a blocchi sono SISO e di conseguenza tutte le variabili sono scalari, tuttavia le regole di connessione che troveremo sono facilmente estendibili al caso pi` u generale di sistemi multivariabili (si veda ad es. [1]). Il caso di connessione pi` u semplice tra due sistemi `e la connessione serie o cascata, che si verifica quando l’uscita di un sistema coincide con l’ingresso di un altro sistema. Con riferimento alla Fig. 2.11, `e immediato comprendere che Y (s) = Gb (s)Ya (s) = Gb (s)Ga (s)U (s)

2.3. Schemi a blocchi ua

81 ya

Ga (s)

+ y

u ub

yb

Gb (s)

u



+

y

Ga (s) + Gb (s)

Figura 2.12: Connessione in parallelo u + −

ua

ya

Ga (s)

yb

ub

y u



y

Ga (s) 1 + Ga (s)Gb (s)

Gb (s)

Figura 2.13: Connessione in retroazione negativa per cui la f.d.t. del sistema complessivo risulta19 G(s) = Gb (s)Ga (s) .

(2.46)

Un altro caso semplice di connessione `e quella in parallelo, che si verifica quando due sistemi hanno il medesimo ingresso e le uscite vengono poi sommate. Cos`ı in Fig. 2.12 `e immediato constatare che 



Y (s) = Ya (s) + Yb (s) = Ga (s)U (s) + Gb (s)U (s) = Ga (s) + Gb (s) U (s) e quindi la funzione di trasferimento del sistema complessivo risulta pari a G(s) = Ga (s) + Gb (s) .

(2.47)

Passiamo ora ad un tipo di connessione un p` o pi` u complesso, quella in retroazione o reazione, rappresentata in Fig. 2.13. Dall’analisi dello schema a blocchi si deduce che 



Y (s) = Ga (s)Ua (s) = Ga (s) U (s) − Yb (s) = Ga (s)U (s) − Ga (s)Gb (s)Y (s) da cui si pu` o ricavare il rapporto tra uscita e ingresso e quindi la f.d.t. del sistema complessivo, detto anche ad anello chiuso G(s) =

Y (s) Ga (s) = . U (s) 1 + Ga (s)Gb (s)

(2.48)

19 Si osservi come nel caso MIMO l’ordine in cui si esegue il prodotto delle f.d.t. non `e indifferente.

82

Capitolo 2. Analisi dei sistemi a tempo continuo u +

ua

ya

Ga (s)

y

+ yb



ub

u

Gb (s)

Ga (s) 1 − Ga (s)Gb (s)

y

Figura 2.14: Connessione in retroazione positiva Nel caso in cui il nodo sommatore nella configurazione in retroazione presenti entrambi i segni positivi, allora la connessione si dice in retroazione positiva, e la f.d.t. del sistema ad anello chiuso pu` o facilmente essere determinata con passaggi analoghi a quelli visti per la retroazione negativa, con il risultato G(s) =

Ga (s) Y (s) = . U (s) 1 − Ga (s)Gb (s)

(2.49)

In entrambi i casi, affinch´e la f.d.t. ad anello chiuso sia sempre ben definita deve verificarsi una condizione di congruenza e cio`e lim Ga (s)Gb (s) 6= −1

s→∞

per la connessione in reazione negativa, e lim Ga (s)Gb (s) 6= 1

s→∞

per quella in reazione positiva. Se ci` o non fosse verificato, risulterebbe lim G(s) = ∞

s→∞

e il sistema complessivo non sarebbe fisicamente realizzabile, cos`ı come discusso nel Paragrafo 2.2.3.

2.4

Stabilit` a dei sistemi dinamici

Affronteremo ora un argomento di estrema importanza, in quanto concerne una propriet` a dei sistemi dinamici di particolare interesse nelle applicazioni. Nella prima sezione, inizieremo ad analizzarla nel caso dei sistemi LTI, ma nella successiva sezione verr` a trattata per sistemi dinamici in generale non lineari, particolarizzando poi i risultati al caso dei sistemi LTI.

2.4. Stabilit` a dei sistemi dinamici

83 x1

x ˜0 δε x0

ε

x(t) x ˜(t)

0

x2

t Figura 2.15: Movimento stabile

2.4.1

Stabilit` a BIBO o esterna

In tutti gli esempi di antitrasformazione della funzione Y (s) visti nel Paragrafo 2.2.1, si pu` o notare come l’uscita y(t) sia una funzione convergente a 0 per t → +∞ nel caso in cui i poli della funzione Y (s) siano tutti a parte reale negativa. Abbiamo gi` a detto che i poli di Y (s) sono i poli di W (s) = nW (s)/dW (s) e quelli di U (s) = nU (s)/dU (s), infatti una funzione razionale fratta pu` o essere sempre decomposta nella somma di due funzioni razionali fratte, come Y (s) = W (s)U (s) =

r(s) k(s) nW (s)nU (s) = + , dW (s)dU (s) dW (s) dU (s)

(2.50)

dove i polinomi r(s) e k(s) sono le soluzioni dell’equazione diofantina20 dW (s)k(s) + dU (s)r(s) = nW (s)nU (s). Dall’equazione (2.50) si vede che l’uscita diverger` a se ci sono radici a parte reale positiva in dW (s) (poli della f.d.t.) oppure in dU (s) (cio`e se l’ingresso `e divergente), di conseguenza si pu` o affermare che se l’ingresso `e convergente, ma qualunque, l’uscita converge se e solo se tutti i poli della f.d.t. del sistema sono 20

Le tecniche di soluzione di tale equazione, seppure non estremamente complesse, richiedono un approfondimento di alcuni concetti non affrontati in questo corso e quindi saranno oggetto di corsi specialistici.

84

Capitolo 2. Analisi dei sistemi a tempo continuo x1

x ˜0 δε x0

x(t)

x ˜(t)

ε

0

x2

t Figura 2.16: Movimento instabile a parte reale negativa. Nel caso in cui l’uscita di un sistema LTI rimane limitata qualunque sia l’ingresso limitato applicato, si dice che il sistema `e stabile BIBO.21 Dunque, vale la seguente Proposizione 2.8 Un sistema LTI `e stabile BIBO o esternamente se e solo se la f.d.t. del sistema ha tutti i poli a parte reale negativa. Facciamo notare che una tale propriet` a `e una caratteristica propria del sistema, infatti `e stata enunciata per qualunque ingresso.

2.4.2

Stabilit` a sotto perturbazioni o interna

La propriet` a di stabilit` a, tuttavia, per sistemi pi` u generali di quelli LTI non pu` o essere ritenuta una propriet` a del sistema, ma il concetto stesso di stabilit` a ha connotati legati alle traiettorie che il sistema esegue; si parla allora di stabilit` a sotto perturbazioni. Diamo la definizione di stabilit` a di un movimento22 di un generico sistema dinamico non lineare e stazionario, cio`e governato da un’equazione 21

Nel corso di comunicazioni elettriche si vedr` a che una tale condizione equivale alla limitatezza dell’integrale (sommabilit` a) della risposta impulsiva. 22 ` E opportuno non confondere il movimento, cio`e la soluzione dell’equazione di stato con assegnata condizione iniziale, con la traiettoria, cio`e la proiezione nello spazio di stato del movimento.

2.4. Stabilit` a dei sistemi dinamici

85 x1

x ˜0 δε x0 x ˜(t)

ε

x(t) x2

0

t Figura 2.17: Movimento asintoticamente stabile differenziale in forma normale del tipo x(t) ˙ = f (x, u),

x(0) = x0 .

Dato un ingresso nominale u ˜(t) e una condizione iniziale nominale x ˜0 , sia x ˜(t) il movimento risultante del sistema. Allora si pongono le seguenti definizioni: • x ˜(t) si dice stabile se, per ogni ε > 0, esiste un δε > 0 tale che, per tutti gli stati iniziali tali che kx0 − x ˜0 k < δε , risulta kx(t) − x ˜(t)k ≤ ε ∀t ≥ 0 . • x ˜(t) si dice instabile se non `e stabile. • x ˜(t) si dice asintoticamente stabile se `e stabile e se risulta lim kx(t) − x ˜(t)k = 0 .

t→+∞

Le tre situazioni sono rappresentate graficamente nelle Figg. 2.15, 2.16, 2.17, rispettivamente. Inoltre, `e chiaro che esse comprendono anche il caso particolare di un movimento costante x ¯, cio`e di un punto di equilibrio (x ¯˙ = 0).

86

Capitolo 2. Analisi dei sistemi a tempo continuo

In generale, la propriet` a di stabilit` a cos`ı definita dipende dal particolare movimento, tuttavia, per un sistema lineare e stazionario non `e pi` u cos`ı. Infatti, si considerino due ingressi nominali u ˜a (t), u ˜b (t) e due condizioni iniziali nominali x ˜0a , ˜a (t), x ˜b (t) i due movimenti nominali, rispettivamente. Se applichiax ˜0b e siano x mo la stessa perturbazione alle due condizioni iniziali nominali: x0a = x ˜0a + ∆x0 , ˜0b + ∆x0 , si otterranno i due movimenti perturbati xa (t), xb (t), i quali x0b = x potranno sempre scriversi come xa (t) = x ˜a (t) + ∆xa (t),

xb (t) = x ˜b (t) + ∆xb (t) .

Applicando il principio di sovrapposizione degli effetti, dimostreremo ora che necessariamente deve risultare ∆xa (t) = ∆xb (t). Se applichiamo al sistema l’ingresso u ˜a (t) − u ˜b (t) a partire da condizione iniziale x0a − x0b , il movimento che ne risulta `e xa (t) − xb (t). Analogamente, se applichiamo al sistema lo stesso ingresso u ˜a (t) − u ˜b (t) ma a partire da condizione iniziale x ˜0a − x ˜0b , il movimento che ne risulta `e x ˜a (t) − x ˜b (t). Tuttavia, siccome risulta x ˜0a − x ˜0b = x0a − x0b , deve necessariamente risultare x ˜a (t) − x ˜b (t) = xa (t) − xb (t)



∆xa (t) = ∆xb (t) .

In conclusione, il comportamento del sistema sotto la stessa perturbazione dello stato iniziale `e sempre lo stesso indipendentemente dal movimento nominale considerato, ci` o significa che si pu` o parlare di stabilit` a del sistema e per studiarla si pu` o scegliere un movimento nominale qualunque. La scelta pi` u ovvia `e naturalmente quella del punto di equilibrio corrispondente all’ingresso nominale nullo e cio`e l’origine dello spazio di stato. In questo modo l’equazione da studiare `e x˙ = Ax,

x(0) = x0 .

(2.51)

Visto che l’equazione (2.51) `e quella che governa l’evoluzione libera dello stato (non c’`e ingresso), la stabilit` a del sistema dipende solo dalla convergenza o meno dei movimenti liberi dello stato, cio`e dei modi propri di evoluzione del sistema, e quindi dalle caratteristiche della matrice dinamica A, in particolare dai suoi autovalori. Abbiamo visto, nel Paragrafo 2.2.4, che l’evoluzione libera dello stato nel dominio di Laplace `e data dalla formula Xl (s) = (sI − A)−1 x0 e che quando si torna nel dominio del tempo antitrasformando, xl (t) sar` a combinazione lineare di tutti termini esponenziali, sinusoidali, eventualmente moltiplicati per potenze di t. Ricordando la Proposizione 2.7, `e evidente allora che valgono le seguenti proposizioni. Proposizione 2.9 Un sistema LTI `e23 23 Si ricorda che antitrasformando Xl (s) a denominatore compare il polinomio minimo di A, le cui radici sono gli autovalori di A.

2.4. Stabilit` a dei sistemi dinamici

87

• asintoticamente stabile se e solo se tutti i modi propri del sistema sono convergenti e quindi se e solo se tutti gli autovalori di A sono a parte reale negativa. • stabile se e solo se gli autovalori di A sono a parte reale non positiva e quelli a parte reale nulla hanno molteplicit` a pari a uno come radici del polinomio minimo. • instabile se e solo se almeno uno degli autovalori di A `e a parte reale positiva oppure a parte reale nulla e con molteplicit` a maggiore di uno come radice del polinomio minimo. Per comprendere come `e possibile che esistono sistemi instabili con autovalori sull’asse immaginario e nessun autovalore a parte reale positiva, analizziamo il seguente esempio. Esempio 2.22 Il sistema con i–s–u x˙ =

0 1 −1 0

!

x+

0 1

!

u

y = (1 0)x

ha autovalori in ±j, cio`e due autovalori sull’asse immaginario ma di molteplicit` a unitaria, quindi `e stabile (ma non asintoticamente!). Se ora consideriamo il sistema costituito dalla serie di due sistemi identici a quello di sopra, si ottiene un sistema la cui matrice dinamica `e   0 1 0 0  −1 0 0 0    A=   0 0 0 1  1 0 −1 0

che ha due autovalori, uno in j di molteplicit` a due e uno in −j di molteplicit` a due come radici del polinomio minimo. Per vedere che tale sistema `e instabile, basta considerare una condizione iniziale tale da generare una evoluzione che non rimane limitata, ad esempio se si sceglie x0 = ( 1 0 0 0 )T , si ottiene, nel dominio di Laplace, un’evoluzione libera nello stato    

Xl (s) = (sI − A)−1 x0 =  =

1 (s2 + 1)2

    

s3

s −1 0 0 1 s 0 0 0 0 s −1 −1 0 1 s s2

−1   1  0      =  0

0

+s +1 0 0 2 3 −s − 1 s + s 0 0 s 1 s3 + s s2 + 1 s2 s −s2 − 1 s3 + s

  1 0      0

0

88

Capitolo 2. Analisi dei sistemi a tempo continuo u +

v



z

s−1 s+2

s2

1 −1

y

Figura 2.18: Schema a blocchi del sistema dell’Esempio 2.23 e quindi le singole variabili di stato sono s s2 + 1 −1 X2 (s) = 2 s +1 s X3 (s) = 2 (s + 1)2 s2 X4 (s) = 2 (s + 1)2

X1 (s) =

L−1

−→ x1 (t) = cos t L−1

−→ x2 (t) = − sin t 1 L−1 −→ x3 (t) = t sin t 2 1 L−1 −→ x4 (t) = (sin t + t cos t) 2

da cui si vede che alcune variabili di stato divergono per t → +∞, e quindi il sistema `e instabile24 . Concludiamo il paragrafo accennando alla relazione che c’`e tra stabilit` a BIBO e stabilit` a sotto perturbazioni. Nel caso di sistemi completamente controllabili e osservabili i poli del sistema e gli autovalori della matrice dinamica coincidono, per cui `e evidente che la stabilit` a BIBO e quella asintotica si equivalgono. Laddove si ha a che fare con sistemi comprendenti una parte non controllabile e/o una parte non osservabile, ci` o non `e pi` u vero. Di conseguenza, se per determinare la stabilit` a esterna `e sufficiente sempre riferirsi alla f.d.t., per poter stabilire la propriet` a di stabilit` a interna occorre riferirsi ad una rappresentazione i–s–u che conservi la “struttura interna” del sistema. Ci` o significa che tale rappresentazione non deve essere quella ottenuta a partire dalla f.d.t. tramite una delle forme canoniche, ma deve necessariamente essere ottenuta a partire da informazioni riguardanti i singoli sottosistemi componenti il sistema in esame, in termini di interconnessioni tra blocchi di cui si conoscono rappresentazioni i–u o anche i–s–u. Per ulteriori dettagli circa tale problema si veda anche il Paragrafo 2.7.1. Cerchiamo di fissare le idee con un esempio.

Esempio 2.23 Consideriamo il sistema il cui schema a blocchi `e rappresentato in Fig. 2.18 e determiniamo le propriet` a di stabilit` a esterna ed interna. Per la stabilit` a 24 Si pu` o verificare che, al contrario, il sistema costituito dal parallelo dei due sistemi del secondo ordine di partenza `e stabile.

2.4. Stabilit` a dei sistemi dinamici

89

BIBO `e sufficiente determinare la f.d.t. W (s) =

1 s2 + 3s + 3

√ i cui poli sono −3/2 ± j 3/2, per cui il sistema `e stabile BIBO, tuttavia non si pu`o concludere che lo sia anche internamente. Per stabilire la propriet` a di stabilit` a interna `e necessario trovare la rappresentazione i–s–u a partire dalle rappresentazioni i–s–u dei singoli sottosistemi. Indicando con x1 la variabile di stato del sottosistema del I ordine, la sua i–s–u in forma canonica di osservazione25 vale x˙ 1 = −2x1 − 3v z = x1 + v mentre, indicando con x2 e x3 le variabili di stato del sottosistema del II ordine, la i–s–u in forma canonica di controllo vale x˙ 2 x˙ 3

!

=

0 1 1 0

!

x2 x3

!

+

0 1

!

z

y = x2 e quindi, tenendo conto della relazione di interconnessione in retroazione negativa v = u − y, la i–s–u del sistema complessivo si scrive 







−2 3 0 −3     x˙ =  0 0 1  x +  0  u 1 0 0 1 y = x2 Il polinomio caratteristico della matrice dinamica vale det(sI − A) = s3 + 2s2 − 3 √ che ha le tre radici −3/2 ± j 3/2 e 1, e quindi il sistema `e internamente instabile. La coesistenza di due propriet` a di stabilit` a cos`ı diverse si giustifica osservando che il sistema non `e completamente controllabile. In particolare l’ingresso u non `e capace di eccitare la dinamica instabile presente nel sistema del II ordine a causa della presenza dello zero nel sistema del I ordine che la “maschera”. Tuttavia, tale dinamica `e eccitabile da condizioni iniziali opportune sulle variabili di stato x2 e x3 . E` questo uno dei motivi per cui sistemi stabili BIBO ma internamente instabili non possono funzionare correttamente nella pratica. Un altro motivo `e che spesso si trascurano alcuni ingressi invece presenti nel sistema, dai quali `e possibile che le dinamiche instabili siano controllabili. Tale argomento verr` a comunque approfondito nel corso di Controlli Automatici. 25 La scelta del tipo di forma canonica per le realizzazioni dei singoli sottosistemi `e assolutamente ininfluente sulle propriet` a strutturali del sistema complessivo.

90

2.4.3

Capitolo 2. Analisi dei sistemi a tempo continuo

Criterio di Routh

Nell’ultimo esempio studiato, per determinare la propriet` a di stabilit` a esterna o interna, abbiamo calcolato esplicitamente le radici di un polinomio. Tuttavia, ci` o non sempre `e agevole o addirittura possibile, specialmente per sistemi di ordine elevato. Si pone dunque il problema di stabilire il segno della parte reale delle radici di un polinomio senza determinarle esplicitamente. Ricordiamo che il calcolo diretto delle radici dei polinomi di grado qualunque pu` o essere fatto solo in maniera approssimata per via numerica e le equazioni polinomiali di grado superiore al quarto non ammettono soluzioni esprimibili tramite funzioni algebriche. Spesso, `e inoltre interessante non limitarsi all’indagine della posizione delle radici del polinomio minimo o del denominatore della f.d.t., ma poter trarre conclusioni su come modificarne i coefficienti per ottenere la stabilit` a26 . Iniziamo questa indagine per gradi. Per un polinomio di primo grado p(s) = s+p l’appartenenza al semipiano sinistro `e garantita dalla condizione p > 0, visto che l’unica radice `e s = −p. Per un polinomio di secondo grado p(s) = as2 +bs+c, il ben noto Teorema di Cartesio afferma che il numero di radici a parte reale positiva `e pari al numero di variazioni di segno dei coefficienti, per cui le radici appartengono al semipiano sinistro se e solo se a, b e c sono tutti dello stesso segno. Le cose si complicano per polinomi di grado superiore al secondo, infatti in questo caso l’uguaglianza del segno dei coefficienti `e condizione solo necessaria per l’appartenenza al semipiano sinistro, cio`e si pu` o affermare che Proposizione 2.10 Se un polinomio ammette tutte radici a parte reale negativa, allora i suoi coefficienti sono tutti dello stesso segno. Che tale condizione non sia in generale sufficiente, si pu` o vederlo tramite l’esempio: p(s) = s3 + s2 + 4s + 30 le cui radici sono s = −3 e s = 1 ± j3. Tuttavia, la condizione necessaria `e di estrema utilit` a in quanto ci consente di affermare che se nel polinomio in esame c’`e qualche variazione di segno, allora certamente c’`e qualche radice nel semipiano destro. Resta da analizzare il caso di un polinomio con coefficienti tutti dello stesso segno e di grado superiore al secondo. Ci viene in aiuto il criterio di Routh che fornisce una condizione necessaria e sufficiente per l’appartenenza al semipiano sinistro delle radici di un polinomio, e quindi per la stabilit` a asintotica o quella BIBO se applicato, rispettivamente, al polinomio minimo della matrice dinamica o al denominatore della f.d.t. Dato un polinomio p(s) = a0 sn + a1 sn−1 + a2 sn−2 + · · · + an con coefficienti tutti dello stesso segno (altrimenti per quanto detto gi` a si pu` o affermare che il sistema in esame `e instabile) la tabella di Routh si costruisce 26 Studi recenti non si limitano alla stabilit` a ma alla D-stabilit` a, cio`e l’appartenenza delle radici a regioni del piano complesso pi` u articolate del semipiano sinistro.

2.4. Stabilit` a dei sistemi dinamici

91

come segue: si scrivono in ordine decrescente gli interi n, n − 1, . . . , 0 e si traccia una linea verticale n n−1 .. . 0 Nella prima riga della tabella si inseriscono i coefficienti del polinomio di indice pari a0 , a2 , . . . e nella seconda quelli di indice dispari a1 , a3 , . . . n a0 a2 a4 · · · n − 1 a1 a3 a5 · · · .. . 0 Il primo elemento della terza riga, b1 , `e pari al determinante della matrice 2 × 2 formata dalle due precedenti righe e dalla prima e seconda colonna cambiato di segno e diviso per il primo elemento della riga precedente

b1 = −

a 0 a1

a2 a3 a1



= (a1 a2 − a0 a3 )/a1 .

Gli altri elementi della prima riga si ottengono con la stessa formula, solo che nella matrice la seconda colonna `e la colonna successiva delle due righe precedenti, ad esempio a a 0 4 a1 a5 b2 = − = (a1 a4 − a0 a5 )/a1 . a1 Gli elementi delle altre righe si costruiscono nello stesso modo, con i determinanti cambiati di segno degli elementi delle due righe precedenti e della prima e successive colonne divisi per il primo elemento della riga precedente. Volendo fornire una formula generale per la costruzione della tabella, si consideri la generica tabella n a0 a2 a4 · · · n − 1 a1 a3 a5 · · · .. .. .. .. .. . . . . . i h1 h2 h3 · · · i − 1 k1 k2 k3 · · · i − 2 l1 l2 l3 · · · .. . 0

92

Capitolo 2. Analisi dei sistemi a tempo continuo

gli elementi della riga i − 2, noti gli elementi delle due righe precedenti, sono dati da h h 1 i+1 k1 ki+1 li = − = (k1 hi+1 − h1 ki+1 )/k1 k1

dove gli elementi necessari al calcolo e non definiti nelle righe precedenti vanno considerati nulli. Una volta completata la tabella (le righe corrispondenti agli indici 0 e 1 avranno un solo elemento) i coefficienti di Routh saranno gli elementi della prima colonna della tabella e il numero delle loro variazioni di segno `e pari al numero delle radici a parte reale positiva, mentre il numero delle loro permanenze di segno `e pari al numero di radici a parte reale negativa. Quando compare qualche coefficiente di Routh nullo, allora la tabella non `e ben definita (tale caso sar` a affrontato pi` u avanti). Di conseguenza si pu` o affermare che Proposizione 2.11 Condizione necessaria e sufficiente affinch´e un polinomio abbia tutte radici a parte reale negativa `e che i suoi coefficienti di Routh siano ben definiti e tutti dello stesso segno.

Esempio 2.24 Consideriamo il polinomio p(s) = s4 + 2s3 + 3s2 + 4s + 5 Siccome tutti i coefficienti sono positivi, la condizione necessaria `e soddisfatta e non pu` o darci alcuna informazione. Iniziamo a costruire la tabella di Routh 4 1 3 5 3 2 4 2 1 0 Il primo elemento della terza riga `e

b1 = − il secondo vale b2 = −

1 3 2 4



1 5 2 0



2

2

=1

=5

2.4. Stabilit` a dei sistemi dinamici

93

ed essendo finite le colonne delle prime due righe, l’ultimo elemento della terza riga `e nullo e non viene riportato e la tabella risulta 4 1 3 5 3 2 4 2 1 5 1 0 L’unico elemento della quarta riga (visto che le due righe precedenti hanno solo due colonne) `e 2 4 1 5 c1 = − = −6 1 e cos`ı per la quinta 1 5 −6 0 d1 = − =5 −6 Quindi la tabella completa `e 1 3 5 4 3 2 4 2 1 5 1 −6 0 5 e i coefficienti di Routh sono 1, 2, 1, −6, 5

che mostrano due permanenze e due variazioni, il che implica due radici a parte reale positiva e due a parte reale negativa. Difatti, applicando il comando roots in MATLAB, si calcola che le radici sono 0.2878 ± j1.4161 −1.2878 ± j0.8579 Questo esempio mostra che l’elemento b2 `e pari ad a4 e l’elemento d1 `e pari a b2 , ma questa caratteristica `e del tutto generale: Gli ultimi elementi delle righe di indice pari sono uguali agli ultimi elementi delle precedenti righe di indice pari. Inoltre, poich´e tutti i termini di una stessa riga possono essere moltiplicati per uno stesso numero positivo, nella costruzione delle righe successive alla seconda non `e necessario dividere per il primo termine della riga precedente, limitandosi a cambiare segno se esso `e negativo27 . 27 Nel caso si decida di non effettuare la divisione `e indispensabile non effettuarla per alcun elemento della riga.

94

Capitolo 2. Analisi dei sistemi a tempo continuo Nella costruzione della tabella possono presentarsi due casi singolari • il primo elemento di una riga di indice minore di n `e nullo; • tutti gli elementi di una riga sono nulli28 .

Nel primo caso per completare la tabella si sostituisce al termine nullo un valore ε > 0 piccolo a piacere. Esempio 2.25 La tabella di Routh del polinomio p(s) = s3 + 3s + 4 `e

3 1 3 2 0 4 1 0

Si sostituisce al posto di 0 un numero ε > 0 e si completa la tabella secondo le regole gi` a esposte 3 1 3 ε 4 2 1 3ε − 4 si noti che non si `e diviso per ε 0 4 Passando ora al limite per ε → 0+ la sequenza dei segni dei coefficienti di Routh `e + + −+ e quindi il polinomio ha una radice a parte reale negativa e due a parte reale positiva; nella fattispecie −1, 0.5 ± j1.9365. Pi` u complesso `e il secondo caso in cui si annulla un’intera riga. Esempio 2.26 Consideriamo il polinomio p(s) = s5 + 3s4 − 5s3 − 15s2 + 4s + 12 Se fossimo interessati alla sola stabilit` a, gi` a potremmo concludere che il sistema che ammette tale polinomio come polinomio minimo della matrice dinamica o come denominatore della f.d.t. `e instabile in quanto non verifica la condizione necessaria, tuttavia possiamo usare il criterio di Routh anche semplicemente per determinare il 28

Si pu` o dimostrare che solo righe di indice dispari possono annullarsi.

2.4. Stabilit` a dei sistemi dinamici

95

numero delle radici a parte reale positiva. Dunque passiamo alla costruzione della tabella di Routh 5 1 −5 4 4 3 −15 12 3 0 0 2 1 0 A questo punto la costruzione della tabella non pu` o essere proseguita e quindi occorre introdurre la cosiddetta equazione ausiliaria, definita dai coefficienti della riga precedente a quella nulla 3s4 − 15s2 + 12 = 0 ottenuta utilizzando solo potenze pari a partire dall’indice della riga di cui si utilizzano i coefficienti. Si dimostra che le soluzioni di questa equazione sono le radici simmetriche rispetto all’origine del polinomio di partenza. Il fatto che ci siano solo potenze pari di s ci permette di risolvere l’equazione rispetto alla variabile σ = s2 . Nel nostro esempio l’equazione ausiliare pu` o essere risolta facilmente 3σ 2 − 15σ + 12 = 0 ⇒ σ1,2 =

   1 ⇒ s1,2 = ±1   4 ⇒ s = ±2 3,4

In conclusione delle 5 radici del polinomio iniziale, 2 sono a parte reale positiva (+1, +2) e due a parte reale negativa (−1, −2), la quinta `e a parte reale negativa perch´e nella tabella parziale non c’era alcuna variazione di segno nella prima colonna. Concludiamo questa lunga trattazione dell’argomento della stabilit` a di un sistema dinamico, accennando al fatto che per i sistemi non lineari lo studio della stabilit` a `e assai pi` u complesso, innanzitutto perch´e non `e possibile riferire la propriet` a al sistema ma solo ai suoi movimenti o ai suoi punti di equilibrio. Inoltre, non esistono condizioni necessarie e sufficienti per la stabilit` a, che va quindi sempre analizzata caso per caso. Tuttavia, esiste un metodo, detto primo metodo di Lyapunov che permette di analizzare la stabilit` a di un punto di equilibrio di un sistema non lineare, studiando la stabilit` a del sistema linearizzato attorno a quel punto di equilibrio. In particolare • se il modello linearizzato `e asintoticamente stabile, allora il punto di equilibrio `e localmente asintoticamente stabile • se il modello linearizzato `e instabile, allora il punto di equilibrio `e instabile • se il modello linearizzato `e stabile, allora nulla si pu` o dire del sistema non lineare

96

Capitolo 2. Analisi dei sistemi a tempo continuo

Per comprendere il senso della parola “localmente”, ricordiamo che i sistemi non lineari possono ammettere anche pi` u punti di equilibrio sotto lo stesso ingresso. A seconda della propriet` a di stabilit` a di ciascuno di essi e delle condizioni iniziali, il sistema si porter` a verso l’uno o l’altro di essi. In particolare, per ogni punto di equilibrio asintoticamente stabile esiste una regione dello spazio di stato, detta dominio di attrazione, tale che se le condizioni iniziali appartengono a tale regione, lo stato del sistema si porter` a verso il punto di equilibrio corrispondente. Esempio 2.27 Consideriamo il sistema dinamico dell’Esempio 1.10 tenendo conto anche dell’attrito viscoso con l’aria di coefficiente β, la cui equazione di stato in forma normale `e x˙ 1 = x2 x˙ 2 = −g/r sin x1 − β/J x2 + 1/J u dove con x1 = θ abbiamo indicato l’angolo e con u = C la coppia applicata all’asse di rotazione. Troviamo i punti di equilibrio in corrispondenza dell’ingresso costante u ˆ = 0 e linearizziamo attorno a ciascuno di essi. Ponendo le derivate uguali a zero, si trovano le soluzioni x ˆ2 = 0,

sin x ˆ1 = 0 ⇒ x ˆ1 = 0, π ,

per cui ci sono due punti di equilibrio distinti, corrispondenti al pendolo con la massa posta nel punto pi` u basso (ˆ x1 = 0) della sua traiettoria e al pendolo con la massa posta nel punto pi` u alto (ˆ x1 = π): x ˆa =



x ˆ1a x ˆ2a



=

 

0 0

, x ˆb =



x ˆ1b x ˆ2b



=



π 0



,

Linearizzando attorno al punto di equilibrio x ˆa si ottiene il sistema lineare δx˙ a =

0 1 −g/r −β/J

!

δxa +



0 1/J



δu

i cui autovalori sono le radici del polinomio s2 + β/J s + g/r, che sono tutte e due a parte reale negativa visto che tutti i parametri fisici sono positivi. Di conseguenza possiamo concludere che il punto di equilibrio x ˆa `e asintoticamente stabile. Linearizzando attorno al punto di equilibrio x ˆb si ottiene il sistema lineare δx˙ b =

0 1 g/r −β/J

!

δxb +



0 1/J



δu

i cui autovalori sono le radici del polinomio s2 + β/J s − g/r, che sono una a parte reale negativa e una a parte reale positiva. Di conseguenza possiamo concludere che

2.5. Risposta a regime permanente

97

il punto di equilibrio x ˆb `e instabile. Dato che il sistema presenta un solo punto di equilibrio stabile, si pu` o concludere anche che esso `e “globalmente” asintoticamente stabile, nel senso che il sistema, sotto l’ingresso u ˆ = 0 si porter` a in x ˆa a partire da qualunque condizione iniziale, eccetto che nel caso in cui x(0) = x ˆb , perch´e il sistema rimarrebbe in tale punto. Infatti, in teoria, anche se instabile, un punto di equilibrio `e sempre un movimento ammissibile per un sistema dinamico, `e sufficiente che le condizioni iniziali siano esattamente pari al punto di equilibrio stesso e l’ingresso sia pari a quello nominale. Il problema `e che, in pratica, una condizione simile `e inattuabile.

2.5

Risposta a regime permanente

La risposta di un sistema LTI, oltre a essere decomposta in evoluzione libera e risposta forzata, in alcuni casi pu` o essere decomposta in un termine transitorio, cio`e che si estingue al passare del tempo, e un termine permanente, cio`e che non si estingue al passare del tempo. Si `e detto in alcuni casi, perch´e la risposta a regime permanente o semplicemente a regime non sempre esiste. La sua esistenza dipende sia dalle caratteristiche del sistema che dal tipo di ingresso applicato. In maniera discorsiva, si pu` o affermare che la risposta a regime di un sistema esiste se la risposta ad un ingresso applicato a partire da un istante infinitamente lontano nel tempo `e ben definita e non dipende dalle condizioni iniziali. Si intuisce, osservando l’espressione della risposta nel dominio del tempo (2.44),(2.45) che affinch´e la risposta risulti indipendente dalle condizioni iniziali, il termine in evoluzione libera (l’unico che dipende dalle condizioni iniziali) deve estinguersi e, come abbiamo visto nel Paragrafo 2.4, ci` o accade se e solo se il sistema `e asintoticamente stabile, cio`e se e solo se gli autovalori della matrice dinamica sono tutti a parte reale negativa. Ci` o assunto, per quanto riguarda le condizioni cui deve soddisfare l’ingresso affinch´e la risposta a regime sia ben definita, in questa sede ci limitiamo a considerare solo il caso di un ingresso costante, per il quale il calcolo della risposta a regime `e di particolare interesse nelle applicazioni. Dato l’ingresso u(t) = u ¯, per poter effettuare il calcolo che ci siamo proposti, occorre riscrivere l’espressione della risposta (2.44) per un istante di tempo generico t0 6= 0 e poi far tendere t0 a −∞ x(t) =

Z

t

t0

eA(t−τ ) Bu(τ )dτ + eA(t−t0 ) x0

Siccome gli autovalori di A sono tutti a parte reale negativa, il secondo termine

98

Capitolo 2. Analisi dei sistemi a tempo continuo

tende a 0 quando t0 → −∞, dunque la risposta a regime risulta xr (t) = lim

Z

t

t0 →−∞ t0

h

A(t−τ )

e

= A−1 eAσ B

i+∞ 0

Bu ¯dτ = lim

Z

t−t0

t0 →−∞ 0



e

Bu ¯dσ =

Z

29

+∞

eAσ Bdσ¯ u=

0

u ¯ = −A−1 B u ¯ = [Φ(s)]s=0 B u ¯

(2.52)

Con passaggi analoghi si calcola la risposta a regime nell’uscita a partire dall’equazione (2.45), ottenendo 



yr (t) = C(−A)−1 B + D u ¯ = W (s)|s=0 u ¯,

(2.53)

dove abbiamo voluto evidenziare come l’uscita a regime di un sistema asintoticamente stabile in risposta a un ingresso costante sia ancora una costante di valore proporzionale all’ingresso, tramite il cosiddetto guadagno statico, cio`e il valore che la f.d.t. del sistema assume per s = 0 e che nel seguito indicheremo con µ, cio`e porremo30 µ = W (s)|s=0 . (2.54) Osserviamo, infine, che la risposta a regime ad un ingresso costante coincide con il valore finale (per t → +∞) della risposta ad un gradino, infatti, la risposta ad un gradino `e sempre somma della evoluzione libera e della risposta forzata, ma la prima va a 0 per t → +∞ visto che il sistema `e asintoticamente stabile, mentre, per il teorema del valore finale, il limite per t → +∞ della risposta forzata vale y(+∞) = lim sY (s) = lim sW (s) s→0

s→0

u ¯ = µ¯ u. s

` importante sottolineare che non abbiamo mai affermato che la risposta a E regime coincide con la risposta forzata, ma, nel caso della risposta al gradino, con il suo valore finale. Chiariamo le idee con un esempio. Esempio 2.28 Calcoliamo la risposta indiciale del sistema LTI con f.d.t. W (s) =

s2

9 − 9s + 4s + 3

Per definizione, dobbiamo calcolare la risposta ad un gradino unitario a partire da condizioni iniziali nulle, per cui la risposta coincide con la risposta forzata, che vale 1 9 − 9s 3 9 6 Y (s) = W (s) = = − + s s(s + 1)(s + 3) s s+1 s+3 29 Si noti che A `e invertibile dato che non pu` o avere alcun autovalore nullo per l’ipotesi di asind At totica stabilit` a. Inoltre, si tenga presente che dt e = AeAt , come peraltro gi` a implicitamente dimostrato nel Paragrafo 2.2.4. 30 Si osservi che tale valore, in generale, pu` o anche non risultare finito, ad esempio quando la W (s) ha un polo nell’origine. Ma nell’ipotesi di asintotica stabilit` a del sistema ci` o non `e possibile.

2.6. Risposta indiciale di sistemi del I e II ordine

99

3

y(t)

2 1 0 −1 0

2

4

6 t

8

10

12

Figura 2.19: Grafico della risposta indiciale del sistema dell’Esempio 2.28

che antitrasformata vale y(t) = 3δ−1 (t) − 9e−t δ−1 (t) + 6e−3t δ−1 (t) , dove si vede che il primo termine coincide con la risposta a regime permanente, mentre gli altri due con la risposta transitoria, in quanto si estinguono al passare del tempo, grazie al fatto che il sistema gode della propriet` a di asintotica stabilit` a. Dal grafico di Fig. 2.19 si vede che nei primi istanti della sua evoluzione la risposta si discosta molto da un segnale costante, che invece `e quello che rimane dopo circa 8 secondi. In conclusione, se un sistema `e asintoticamente stabile, la sua risposta pu` o essere sempre decomposta in una parte transitoria la cui evoluzione `e legata ai modi propri del sistema (comprendente anche l’evoluzione libera se le condizioni iniziali non sono nulle), e una parte a regime legata al tipo di ingresso applicato al sistema. In sostanza, la differenza tra la risposta complessiva e tutto ci` o che tende a zero al passare del tempo `e ci` o che si chiama risposta a regime permanente. Formalmente, la risposta a regime permanente nello stato (risp. nell’uscita) per un sistema LTI pu` o essere definita anche come la funzione del tempo xr (t) (risp. yr (t)) tale che il seguente limite esiste lim (x(t) − xr (t)) = 0

t→+∞

(risp.

lim (y(t) − yr (t)) = 0) .

t→+∞

(2.55)

Sar` a in base a tale definizione che nel Capitolo 4 affronteremo il calcolo della risposta a regime permanente per un’altra classe di segnali di ingresso, quelli sinusoidali.

100

Capitolo 2. Analisi dei sistemi a tempo continuo y

max

(1+0.01ε)y ∞ y (1−0.01ε)y ∞

y(t)



0.5y∞

0 T r

TM

T



t

Ts

Figura 2.20: Parametri caratteristici della risposta indiciale

2.6

Risposta indiciale di sistemi del I e II ordine

In questo paragrafo analizzeremo pi` u in dettaglio le caratteristiche della risposta indiciale di alcuni sistemi del I e del II ordine, in quanto il comportamento di moltissimi sistemi nella pratica `e ben approssimabile con quello di tali sistemi semplici, inoltre esistono numerose applicazioni in cui un sistema `e soggetto a segnali costanti per lunghi periodi e quindi `e di interesse studiarne il comportamento quando i segnali di ingresso sono costanti a tratti (successione di gradini). La risposta indiciale verr` a caratterizzata facendo riferimento ai seguenti parametri, graficamente riportati in Fig. 2.20 • valore di regime y∞ che `e pari al guadagno statico del sistema, come gi` a trovato nel Paragrafo 2.5 • valore massimo ymax definito come il massimo dell’uscita • sovraelongazione percentuale s% definita come s% = 100

ymax − y∞ y∞

• tempo di massima sovraelongazione TM definito come il primo istante in cui y = ymax • tempo di salita Ts definito come l’intervallo di tempo occorrente affinch´e l’uscita passi dal 10% al 90% del valore di regime • tempo di ritardo Tr definito come l’istante di tempo in cui l’uscita raggiunge 0.5y∞

2.6. Risposta indiciale di sistemi del I e II ordine

101

1

y(t)/µ

0.8 0.6 0.4 0.2 0 0

2

4

6

t/τ

Figura 2.21: Risposta indiciale di un sistema del I ordine e tangente nell’origine • tempo di assestamento Taε definito come l’istante di tempo a partire dal quale la differenza tra l’uscita e il valore di regime sia definitivamente inferiore al ε% del valore di regime Sistemi del I ordine.

Si consideri il sistema con f.d.t. µ G(s) = , τ >0. 1 + sτ

La risposta indiciale si ottiene antitrasformando la risposta nel dominio di Laplace Y (s) = G(s)

1 µ µ µτ µ µ = = − = − s s(1 + sτ ) s 1 + sτ s s + 1/τ

e quindi





y(t) = µδ−1 (t) − µe−t/τ δ−1 (t) = µ 1 − e−t/τ δ−1 (t) , il cui diagramma `e riportato in Fig. 2.21 in unit` a normalizzate. Dal grafico si evince immediatamente che ymax = y∞ = µ, s% = 0, mentre `e possibile calcolare ` quindi evidente che Ts = log 9 ≃ 2.2τ , Tr ≃ 0.7τ , Ta1 = log 100 ≃ 4.6τ . E come le caratteristiche “dinamiche” del sistema, cio`e quelle che ne descrivono il comportamento in transitorio, siano legate al parametro τ , detto costante di tempo. A tale valore `e legata la pendenza della tangente nell’origine, che pu` o essere calcolata immediatamente applicando il teorema del valore iniziale alla derivata di y(t), e quindi a sY (s) nel dominio di Laplace, cio`e y(0) ˙ = lim s(sY (s)) = s→∞

sµ = µ/τ . 1 + sτ

Pi` u la costante di tempo `e piccola, pi` u il tempo di salita diminuisce e il sistema si porta al valore di regime pi` u rapidamente.

102

Capitolo 2. Analisi dei sistemi a tempo continuo 1

y(t)/µ

0.8 0.6 0.4 0.2 0 0

5

10

15

t

Figura 2.22: Risposta indiciale di un sistema del II ordine con poli reali Sistemi del II ordine. Prima consideriamo il caso di un sistema con f.d.t. con due poli reali µ , τ1 ≥ τ2 > 0 , G(s) = (1 + sτ1 )(1 + sτ2 ) la cui risposta indiciale nel dominio di Laplace vale Y (s) = =

µ µ µτ1 /(1 − τ2 /τ1 ) µτ2 /(1 − τ1 /τ2 ) = − − s(1 + sτ1 )(1 + sτ2 ) s 1 + sτ1 1 + sτ2 µ µτ1 /(τ1 − τ2 ) µτ2 /(τ1 − τ2 ) − + s s + 1/τ1 s + 1/τ2

che antitrasformata diventa 



τ1 τ2 y(t) = µ 1 − e−t/τ1 + e−t/τ2 δ−1 (t) . τ1 − τ2 τ1 − τ2 Il diagramma temporale `e riportato in Fig. 2.22 e mostra che ancora una volta non c’`e sovraelongazione e quindi ymax = y∞ , mentre ora la tangente nell’origine ha pendenza nulla. Inoltre, dall’espressione nel dominio del tempo si evince che l’esponenziale pi` u lento (cio`e quello con costante di tempo pi` u grande, τ1 ) `e moltiplicato per un coefficiente (il residuo del polo corrispondente in −1/τ1 ) in valore assoluto pi` u grande di quello relativo all’esponenziale pi` u veloce. Se, al limite, si pu` o ritenere τ1 >> τ2 , allora la risposta pu` o essere approssimata da 



y(t) ≃ µ 1 − e−t/τ1 δ−1 (t) , che `e quella di un sistema del primo ordine. In altre parole, in un sistema di questo tipo gli effetti delle dinamiche veloci oltre a scomparire rapidamente pesano meno di quelli dovuti alle dinamiche lente.

2.6. Risposta indiciale di sistemi del I e II ordine

ζ=0.1 ζ=0.2 ζ=0.3 ζ=0.4 ζ=0.5

1.5

y/µ

1

0.5

0 0

103

ζ=0.6 ζ=0.7 ζ=0.8 ζ=0.9 ζ=1

5

10

15

ωnt

Figura 2.23: Risposta indiciale di un sistema del II ordine con poli complessi e coniugati Passiamo ora al caso di un sistema con f.d.t. con due poli complessi e coniugati G(s) =

µωn2 , s2 + 2ζωn s + ωn2

ωn > 0, 0 < ζ < 1

che nel dominio di Laplace ha risposta indiciale Y (s) =

µωn2 µ r r∗ = + + s(s2 + 2ζωn s + ωn2 ) s s − p s − p∗

dove il polo p `e pari a

q

p = −ζωn + jωn 1 − ζ 2 e quindi se fosse ζ < 0 il sistema sarebbe instabile perch´e avrebbe poli con parte reale positiva. Il residuo r, in base alle (2.13),(2.14) si calcola come |r|

µω 2 µ n = [(s − p)Y (s)]s=p = = p p(p − p∗ ) 2 1 − ζ2   q q

ζ arg(r) = − arg −2ωn2 1 − ζ 2 − j2ζωn2 1 − ζ 2 = π − atan p 1 − ζ2

e dunque la risposta indiciale nel dominio del tempo vale 

!

q 1 −ζωn t 2 y(t) = µ 1 + p e cos ω n 1 − ζ t + arg(r) 1 − ζ2

δ−1 (t) .

Il diagramma temporale, riportato in Fig. 2.23 per diversi valori dello smorzamento, rivela la presenza di sovraelongazione per ζ < 1 e si pu` o dimostrare che

104

Capitolo 2. Analisi dei sistemi a tempo continuo

4

y(t)

3 2 1 0 0

2

4

6

t

Figura 2.24: Risposta indiciale del sistema dell’Esempio 2.29 vale

− √ ζπ

s% = 100e

1−ζ 2

da cui si evince che la sovraelongazione dipende solo dallo smorzamento ζ, e in particolare essa aumenta sempre al diminuire dello smorzamento, mentre stime del tempo di assestamento all’1% e al 2% sono date dalle formule Ta1 ≃

4.6 , ζωn

Ta2 ≃

4 , ζωn

in cui compare anche la dipendenza dalla pulsazione naturale ωn , e si vede che il sistema si porta al valore di regime tanto pi` u rapidamente quanto pi` u grande `e il prodotto ζωn , che `e il valore assoluto della parte reale dei poli del sistema. Ancora una volta dunque, la distanza dei poli dall’asse immaginario `e indicativa della “rapidit` a” del sistema. Abbiamo visto che nel caso di poli complessi e coniugati il sistema del II ordine sovraelonga in risposta ad un gradino, tuttavia ci` o non deve portare a concludere che nessun sistema del II ordine con poli reali pu` o sovraelongare, basta analizzare il caso dell’esempio seguente.

Esempio 2.29 La risposta indiciale del sistema con f.d.t. W (s) =

10s + 6 s2 + 3s + 2

vale y(t) = (3 + 4e−t − 7e−2t )δ−1 (t) ,

2.7. Il problema della realizzazione

105 R

PSfrag

C

u

y

Figura 2.25: Rete RC R

R

z C

u

C

y

Figura 2.26: Doppia rete RC il cui andamento `e riportato in Fig. 2.24, dove si vede chiaramente la presenza di sovraelongazione nonostante i poli del sistema siano in −1 e −2. Tale effetto non pu` o che essere dovuto alla presenza dello zero in −3/5, pi` u vicino all’asse immaginario dei due poli.

2.7

Il problema della realizzazione

Abbiamo visto come ricavare la funzione di trasferimento di sistemi lineari e stazionari e inoltre le formule per l’espressione di funzioni di trasferimento risultanti dall’interconnessione di sistemi pi` u semplici. Dobbiamo ora evidenziare che l’interconnessione presenta un problema dal punto di vista realizzativo. Illustriamo questo punto con un esempio. Esempio 2.30 Consideriamo la rete RC di Fig. 2.25 la cui funzione di trasferimento `e 1 W (s) = 1 + sτ con τ = RC (basta trasformare secondo Laplace la relazione i–u u = RC y˙ + y ottenuta applicando il II principio di Kirchhoff). Ora connettiamo in cascata due reti RC uguali (Fig. 2.26). In un primo momento si sarebbe portati a pensare che la f.d.t. risultante sia quella che si ottiene dalla serie delle due f.d.t. componenti, cio`e 

1 1 + sτ

2

=

1 . 1 + 2τ s + τ 2 s2

(2.56)

106

Capitolo 2. Analisi dei sistemi a tempo continuo O

− e

f (e)

e



O

+

+ Figura 2.27: Schema ideale dell’amplificatore operazionale e simbolo circuitale Invece, calcoliamo la f.d.t. del sistema complessivo dalle equazioni u = Rz + x1 x1 = RC x˙ 2 + x2 z = C x˙ 1 + C x˙ 2 ricavando W (s) =

1 . 1 + 3τ s + τ 2 s2

(2.57) (2.58)

A cosa `e dovuta la discrepanza fra la (2.56) e la (2.58)? Il problema `e che negli schemi a blocchi il flusso di variabili `e sempre assunto unidirezionale, ovvero nello schema di Fig. 2.11 il sistema a influenza il sistema b ma non vale il viceversa. Nella connessione delle due reti invece il secondo sistema interagisce con il primo, come si vede dall’equazione (2.57) o dalla seguente considerazione: supponiamo che l’ingresso sia nullo e il primo condensatore scarico; una condizione iniziale non nulla nel secondo condensatore induce un’evoluzione non nulla anche sulla tensione ai capi del primo condensatore, evoluzione che non si ritrova nella schematizzazione a blocchi. Il problema `e quindi nella connessione fra i due blocchi, che dovrebbe avvenire con un elemento che forzasse un’evoluzione unidirezionale dei flussi di variabili. Un elemento in grado di approssimare con sufficiente accuratezza questo comportamento `e l’amplificatore operazionale. Si tratta di un amplificatore ad elevato guadagno e con impedenza di ingresso molto grande e impedenza di uscita molto piccola. Nello schema ideale di Fig. 2.27 l’impedenza di ingresso `e infinita e quella di uscita nulla. L’andamento della funzione f (e) `e riportato in Fig. 2.28, da cui si evince che l’uscita dell’amplificatore operazionale reale `e pari a tan(α) volte il segnale di ingresso se quest’ultimo `e sufficientemente contenuto da non causare la saturazione; inoltre, essendo α > 90◦ , il guadagno `e negativo e l’amplificatore si dice che `e invertente. Se invece il segnale di ingresso eccede in valore assoluto il limite −Es / tan(α), allora l’uscita `e in valore assoluto pari a Es . Nel seguito supporremo di trovarci sempre nel caso ideale in cui l’angolo α ` chiaro che in tale caso affinch´e l’uscita sia |y(t)| < Es in ingresso tende a 90◦ . E

2.7. Il problema della realizzazione

107

f (e)

Es α −Es / tan(α)

Es / tan(α)

e

−Es

Figura 2.28: Caratteristica dell’operazionale I(s) V (s)

Figura 2.29: Definizione dell’impedenza operazionale deve essere31 e(t) = 0. Inoltre, essendo l’impedenza di ingresso infinita, anche la corrente in ingresso deve essere nulla. Assumeremo infine che l’impedenza di uscita sia nulla in modo che la corrente erogata dall’operazionale dipenda esclusivamente dal carico esterno che applicheremo. Conviene analizzare il comportamento di un circuito piuttosto generale che fa uso dell’amplificatore operazionale ideale, per poi particolarizzare il tipo di elementi impiegati in schemi specifici. Per far ci` o definiamo l’impedenza operazionale come la f.d.t. di un bipolo passivo il cui ingresso sia la corrente che scorre nel bipolo e la cui uscita sia la tensione ai capi del bipolo stesso, quindi con riferimento alla Fig. 2.29 porremo Z(s) =

V (s) . I(s)

(2.59)

In particolare, ricordando che la relazione costitutiva dell’elemento condensatore `e i = Cdv/dt, trasformando secondo Laplace con tensione iniziale nulla, `e 31

Questa condizione `e anche detta corto circuito virtuale.

108

Capitolo 2. Analisi dei sistemi a tempo continuo

replacemen Z0 (s) I1 (s)

Z1 (s) U1 (s)

I0 (s)

I(s) −

I2 (s) E(s)

Z2 (s)

+

U2 (s) Y (s) In (s)

Zn (s) Un (s)

Figura 2.30: Schema generale con operazionale immediato trovare che l’impedenza operazionale di un condensatore vale Z(s) =

V (s) 1 = I(s) sC

(2.60)

Analogamente, ricordando che per un induttore vale la relazione v = Ldi/dt, trasformando secondo Laplace con corrente iniziale nulla, si ha che l’impedenza operazionale di un induttore vale Z(s) =

V (s) = sL . I(s)

(2.61)

Ora consideriamo lo schema di Fig. 2.30. Per quanto detto prima E(s) = 0, quindi Ii (s) = I0 (s) =

Ui (s) , i = 1, . . . , n Zi (s) Y (s) . Z0 (s)

Essendo inoltre I(s) = 0 avremo n X i=1

Ii (s) = −I0 (s)

2.7. Il problema della realizzazione

109 R0

R1 −

U1 (s)

+

R2

U2 (s)

Y (s) Rn Un (s)

Figura 2.31: Schema di un sommatore e quindi Y (s) = −

n X Z0 (s) i=1

Zi (s)

Ui (s) .

(2.62)

Dalla (2.62) si deduce che scegliendo opportunamente le impedenze Zi (s), i = 0, . . . , n `e possibile realizzare delle unit` a operazionali elementari che ci consentiranno di realizzare una qualunque funzione di trasferimento. La prima configurazione `e illustrata in Fig. 2.31. In questo caso le impedenze operazionali sono Zi (s) = Ri , i = 0, . . . , n e quindi dalla (2.62) otteniamo Y (s) = −

n X R0 i=1

Ri

Ui (s) ,

che antitrasformata fornisce y(t) = −

n X R0 i=1

Ri

ui (t) = −

n X

ai ui (t) .

i=1

Quindi lo schema di Fig. 2.31 realizza un sommatore analogico con guadagni 0 ai = R Ri facilmente variabili con un’opportuna scelta delle resistenze Ri . Consideriamo ora lo schema di Fig. 2.32. Tenendo conto dell’espressione dell’impedenza operazionale di un condensatore (2.60), dalla (2.62) si ottiene Y (s) = −

n X i=1

1 Ui (s) sRi C

110

Capitolo 2. Analisi dei sistemi a tempo continuo C R1 −

U1 (s)

U2 (s)

+

R2

Y (s) Rn Un (s)

Figura 2.32: Schema di un sommatore–integratore la cui antitrasformata `e y(t) = y0 −

n X i=1

1 Ri C

Z

0

t

ui (τ )dτ ,

dove y0 `e la tensione all’istante t0 presente sul condensatore. Dunque l’unit` a operazionale appena esaminata realizza un sommatore–integratore. Ricordando ora che gli schemi delle forme canoniche analizzate (vedi Paragrafo 1.5) fanno uso solo di sommatori, integratori e guadagni, siamo ora in grado di “simulare elettronicamente” qualunque sistema lineare e stazionario, cio`e di realizzare un circuito elettronico analogico in cui le tensioni evolvono secondo le stesse equazioni che regolano il funzionamento del sistema dinamico in esame.

2.7.1

Dallo schema a blocchi alla i–s–u

Abbiamo visto che per realizzare un sistema occorre determinarne una i–s–u. Tuttavia, abbiamo anche detto che esistono infinite rappresentazioni i–s–u di un sistema, per cui occorre porsi la domanda se `e possibile scegliere una qualunque di esse. La risposta `e che dipende dalle applicazioni, cio`e dallo scopo per cui la realizzazione del sistema deve essere adoperata. In numerose applicazioni, di un sistema si conoscono le rappresentazioni i–u dei diversi sottosistemi che lo compongono e spesso `e necessario determinare una sua realizzazione le cui propriet` a

2.7. Il problema della realizzazione

111

u

s+2 s+1

z=v

1 s+2

y

u

1 s+2

z=v

s+2 s+1

y

Figura 2.33: Schemi a blocchi relativi all’Esempio 2.31 a nell’Esempio 1.9 abbiamo strutturali 32 siano le stesse del sistema originario. Gi` visto come due i–s–u di uno stesso sistema possono avere propriet` a strutturali diverse. Di conseguenza, nel realizzare33 un sistema di cui sia assegnato lo schema a blocchi dei sottosistemi componenti, se si vogliono preservare le propriet` a strutturali del sistema di partenza, `e necessario realizzare prima i singoli sottosistemi e poi provvedere a connetterli tra loro cos`ı come indicato dallo schema a blocchi. Tale procedimento garantisce che le variabili di stato della rappresentazione i–s–u che si trova hanno pieno significato fisico, nel senso che di ciascuna di esse `e noto il sottosistema a cui appartiene, e di conseguenza la i–s–u complessiva possiede le stesse propriet` a strutturali del sistema originario. Vediamo, dunque, un esempio che metta in evidenza come due sistemi possano avere la stessa funzione di trasferimento ma propriet` a strutturali diverse, per cui il “procedimento di realizzazione a singoli sottosistemi” `e necessario ai fini della determinazione di queste ultime.

Esempio 2.31 Dati i due sistemi in Fig. 2.33, `e evidente che essi hanno la stessa funzione di trasferimento pari a G(s) =

1 . s+1

Innanzitutto, notiamo che in entrambi i casi `e presente una cancellazione polo-zero, e ci` o ci consente di prevedere che i sistemi complessivi non possono essere completamente controllabili e osservabili. Allora, determiniamo le realizzazioni dei due sistemi seguendo il procedimento prima esposto. Iniziamo dallo schema a blocchi in alto. Le i–s–u dei due blocchi si ottengono applicando, ad esempio, la forma canonica di controllo x˙ 1 = −x1 + u z = x1 + u 32 33

x˙ 2 = −2x2 + v y = x2

Controllabilit` a, osservabilit` a e stabilit` a. O, equivalentemente, se si vuole determinarne una rappresentazione i–s–u.

112

Capitolo 2. Analisi dei sistemi a tempo continuo

dove con x1 si `e indicato lo stato del sottosistema a sinistra e con x2 quello del sottosistema a destra. Tenendo conto della connessione serie z = v, si ottiene la i–s–u complessiva x˙ 1 x˙ 2

!

−1 0 1 −2

=

!

x1 x2

y = (0 1)

x1 x2

!

1 1

+

!

u

!

E` ora possibile determinare la propriet` a di controllabilit` a applicando la Proposizione 2.5 e quella di osservabilit` a applicando la Proposizione 2.6 C=



1 −1 1 −1



,

O=



0 1 1 −2



e quindi il sistema complessivo non `e controllabile ma `e osservabile. Passiamo ora a realizzare il sistema rappresentato dallo schema a blocchi in basso. Le i–s–u dei due sottosistemi sono le seguenti x˙ 1 = −2x1 + u z = x1

x˙ 2 = −x2 + v y = x2 + v

dove x1 `e lo stato del sottosistema di destra e x2 quello del sottosistema di sinistra. Tenendo conto della connessione serie z = v, la i–s–u complessiva risulta x˙ 1 x˙ 2

!

=

−2 0 1 −1

y = (1 1)

!

x1 x2

x1 x2

!

+

1 0

!

u

!

le cui matrici di controllabilit` a e osservabilit` a sono C=



1 −2 0 1



,

O=



1 1 −1 −1



e quindi il sistema complessivo `e controllabile ma non `e osservabile. Notiamo esplicitamente che saremmo giunti alle stesse conclusioni anche se avessimo realizzato i singoli sottosistemi facendo uso della forma canonica di osservazione, in quanto lo scopo `e quello di analizzare le propriet` a strutturali di un sistema composto da sottosistemi dei quali si conosce solo la rappresentazione i–u (f.d.t.), per cui tali propriet` a dipendono solo dalla connessione dei vari blocchi fra loro, ma non dalla struttura interna di ciascuno di essi.

2.7. Il problema della realizzazione

113

R R U (s)

Rc

-

C

R R

R

C

-

R

+

-

C

+ +

Y (s)

Figura 2.34: Realizzazione analogica di un sistema LTI R R1 -

U1 (s) U2 (s) R2

+

C Y (s)

Figura 2.35: Cella elementare del circuito precedente

Nell’Esempio precedente avremmo potuto anche seguire un’altra strada per risolvere il problema della realizzazione, e cio`e passare dalla f.d.t. complessiva alla i–s–u del sistema adoperando direttamente una delle forme canoniche. Innanzitutto, va osservato che in questo modo avremmo ottenuto un sistema del primo ordine anzich´e del secondo, visto che la f.d.t. complessiva ha un denominatore di primo grado, a causa della cancellazione polo-zero. La realizzazione ottenuta in tal modo si dice minima. Senza scendere troppo nei dettagli, si tratta di una i–s–u che utilizza il minimo numero di variabili di stato in grado di riprodurre quel dato comportamento ingresso–uscita del sistema. Tuttavia, una realizzazione del genere avrebbe certamente mancato di qualcosa, e cio`e della descrizione della parte non controllabile e/o non osservabile del sistema. Si potrebbe allora pensare che il non eseguire esplicitamente la cancellazione nel calcolo della f.d.t. complessiva porterebbe ad una realizzazione che descrive il sistema in maniera completa. Purtroppo, ci` o non `e vero, nel senso che la i–s–u che si otterrebbe avrebbe propriet` a strutturali che dipendono solo dal tipo particolare di forma canonica scelto per la realizzazione e non dalla effettiva struttura interna del sistema di partenza. Concludiamo questo paragrafo risolvendo anche il problema inverso, cio`e come

114

Capitolo 2. Analisi dei sistemi a tempo continuo

U (s) + +



1 1 + sRC



1 1 + sRC



1 1 + sRC

Y (s)

R Rc Figura 2.36: Schema a blocchi del circuito dell’Esempio 2.32 risalire dallo schema realizzativo analogico alla f.d.t. Esempio 2.32 Si consideri lo schema di Fig. 2.34, in cui sono riconoscibili tre blocchi del tipo in Fig. 2.35. Con le notazioni usate in precedenza l’impedenza operazionale Z0 (s) `e data dal parallelo fra condensatore e resistore Z0 (s) =

1 R sC R 1 = 1 + sRC R + sC

e quindi la risposta della cella in Fig. 2.35 `e Y (s) = −

1 1 + sRC





R R U1 (s) + U2 (s) R1 R2

e nel caso particolare in cui R1 = R2 = R, si ha la relazione ingresso–uscita Y (s) = −

1 (U1 (s) + U2 (s)) . 1 + sRC

Quindi il circuito in Fig. 2.34 si schematizza come in Fig. 2.36, la cui f.d.t. `e W (s) =

1 − (1+sτ )3

1+

K (1+sτ )3

=−

1 , K + (1 + sτ )3

dove τ = RC e K = R/Rc .

2.8

Comandi MATLAB

In MATLAB un polinomio `e rappresentato dal vettore dei suoi coefficienti, cos`ı ad esempio, il polinomio d(s) = 3s3 + 2s + 5 `e rappresentabile in MATLAB dalla variabile

2.8. Comandi MATLAB

115 d=[3 0 2 5];

` possibile anche ottenere i coefficienti di un polinomio di cui siano assegnate E le radici tramite il comando >> p=poly([-3 -2 1]); che fornisce i coefficienti del polinomio monico34 s3 + 4s2 + s − 6, che ammette le radici −3, −2, 1. Viceversa, il comando per calcolare le radici di un polinomio `e roots. Cos`ı, ad esempio, il comando >> roots([1 4 8]) fornisce il risultato >> -2 + 2i -2 - 2i I comandi MATLAB per il calcolo del prodotto e della divisione di due polinomi sono conv e deconv. Ad esempio, il prodotto (s + 1)(s2 + 3s + 4) = s3 + 4s2 + 7s + 4 si calcola con il comando >> conv([1 1],[1 3 4]) che restituisce il risultato >> 1 4 7 4 mentre il rapporto (s3 + 2s2 + 4s + 1)/(s + 1) = s2 + s + 3 − 2/(s + 1) si calcola con il comando >> [q,r]=deconv([1 2 4 1],[1 1]) che restituisce il polinomio quoziente >> q = >> 1 1 3 e il polinomio resto 34

Si dice monico un polinomio che ha il termine di grado massimo pari a 1.

116

Capitolo 2. Analisi dei sistemi a tempo continuo

>> r = >> 0 0 0 -2 I residui di una scomposizione in fratti semplici si trovano con l’ausilio del comando residue. Ad esempio, per scomporre in fratti semplici la funzione razionale fratta n(s) s−3 = 3 d(s) s + 5s2 + 6s si pu` o usare il comando >> [r,p,k]=residue([1 -3],[1 5 6 0]) che restituisce, nell’ordine, i residui >> r = >> -2 2.5 -0.5 i poli corrispondenti >> p = >> -3 -2 0 e l’eventuale parte intera >> k = >> [ ] Di seguito si riporta una serie di comandi messi a disposizione dal Control System Toolbox per l’analisi dei sistemi LTI. Nel Capitolo 1 abbiamo visto come `e possibile definire in MATLAB una variabile sistema quando `e nota la sua i–s–u. Se, invece, del sistema `e nota la f.d.t. W (s) = n(s)/d(s), allora si pu` o usare il comando >> W = tf(n,d); dove n e d sono i vettori dei coefficienti dei polinomi n(s) e d(s), rispettivamente. L’applicazione, invece, dei comandi ss e tf a variabili di tipo sistema, determina la conversione tra un tipo di rappresentazione e l’altro. Per connettere tra di loro pi` u sistemi, in MATLAB gli operatori + e * quando applicati a variabili di tipo sistema rappresentano le connessioni in parallelo e in serie, rispettivamente. Inoltre per risolvere la connessione in retroazione `e possibile adoperare l’operatore / o, in alternativa, il comando feedback. Se, ad esempio, si vuole determinare la f.d.t. della serie tra S1 ed S2 in retroazione negativa con S3 si pu` o usare la sintassi

2.9. Esercizi

117

>> tf(S2*S1/(1+S2*S1*S3)); o equivalentemente >> feedback(S2*S1,S3,-1); dove il -1 diventa +1 in caso di reazione positiva. A valle delle operazioni di connessione, si consiglia sempre di chiedere esplicitamente al MATLAB di effettuare eventuali semplificazioni tra zeri e poli del sistema complessivo. A ci` o provvede il comando minreal applicato al sistema complessivo. La risposta impulsiva di un sistema LTI, sia esso assegnato in spazio di stato col comando ss, sia esso assegnato in termini di f.d.t. col comando tf, pu` o essere determinata col comando impulse. Ad esempio, la risposta impulsiva nell’uscita e nello stato del sistema W la si determina col comando >> [y,t,x]=impulse(W); In maniera del tutto analoga si possono calcolare la risposta indiciale, col comando step, e quella libera, col comando initial. Per determinare, infine, la risposta ad un generico ingresso i cui campioni sono memorizzati nella variabile u basta usare il comando >> [y,t,x]=lsim(W,u); Si tenga presente che se i comandi per il calcolo della risposta vengono usati omettendo i parametri di uscita, essi producono un grafico della risposta, che altrimenti dovrebbe essere generato tramite il comando grafico plot. Ad esempio, per tracciare il diagramma temporale della risposta nell’uscita memorizzata nella variabile y, basta digitare >> plot(t,y)

2.9

Esercizi

Esercizio 2.1 Determinare la trasformata di Laplace delle seguenti funzioni del tempo f1 (t) = e−3t δ−1 (t) f2 (t) = sin(t − 5)δ−1 (t − 5)

f4 (t)

1

f3 (t) = (t − 2)δ−1 (t − 2) f4 (t) = vedi grafico a lato

0

1

2

t

118

Capitolo 2. Analisi dei sistemi a tempo continuo u(t) +

-

4 s(s + 5)

v(t)

y˙ + 3y = v

y(t)

Figura 2.37: Schema a blocchi del sistema dell’Esercizio 2.6 Esercizio 2.2 Determinare la f.d.t. e una rappresentazione i–s–u del sistema la cui rappresentazione i–u `e ... 2 y +4y˙ + 6y = 2¨ u − 4u˙ Esercizio 2.3 Determinare una rappresentazione i–s–u del sistema la cui risposta impulsiva `e w(t) = (2te−t + 3e−4t )δ−1 (t) Esercizio 2.4 Determinare la risposta nell’uscita del sistema la cui f.d.t. `e35 W (s) =

s2

1 + 3s + 3

al segnale di ingresso u(t) = f1 (t) come definito nell’Esercizio 2.1. Esercizio 2.5 Determinare la risposta nell’uscita del sistema x˙ = y = (3

0 1 −1 −2

!

x+

0 2

!

u,

x(0) =

1 1

!

−1 )x

al segnale di ingresso u(t) = f2 (t) come definito nell’Esercizio 2.1. Esercizio 2.6 Determinare la risposta indiciale del sistema in Fig. 2.37. Esercizio 2.7 Determinare la f.d.t. e la propriet` a di stabilit` a BIBO del sistema rappresentato in Fig. 2.38. Esercizio 2.8 Determinare i valori di k per cui il sistema rappresentato in Fig. 2.39 `e esternamente stabile. Per un valore a scelta di k 6= 0, trovare la risposta al segnale di ingresso u(t) = 5.

2.9. Esercizi

119

u(t) +

−5 s+3

1 s2

-

+ y(t) +

2

Figura 2.38: Schema a blocchi del sistema dell’Esercizio 2.7

u(t) +

+

4 s+1 −

2 s

+

y(t)

+

k s+2

Figura 2.39: Schema a blocchi del sistema dell’Esercizio 2.8 Esercizio 2.9 Determinare i valori di k tali che il sistema rappresentato in Fig. 2.40 `e stabile BIBO e quelli per cui `e stabile internamente. Esercizio 2.10 Determinare la propriet` a di stablit` a dei punti di equilibrio del sistema dell’Esercizio 1.6. Esercizio 2.11 Nel sistema meccanico in Fig. 2.41, la molla non lineare ha energia potenziale pari a V = 1/4kx4 , con k = 1000 N/m. Assegnata la massa M = 1 kg, determinare il valore del parametro β tale che il sistema linearizzato attorno al punto di equilibrio corrispondente all’ingresso u ˆ = 8 N abbia un coefficiente di smorzamento ζ = 0.3. Esercizio 2.12 Determinare i punti di equilibrio del sistema non lineare x˙ 1 = −x2 + e−2x1 − u x˙ 2 = e−x1 − x2 y = x2 in corrispondenza dell’ingresso u ˆ = 2 e la risposta nell’uscita all’ingresso u(t) = 2 + 0.1 sin(4t)δ−1 (t).

120

Capitolo 2. Analisi dei sistemi a tempo continuo u(t) +

-

s−2 s+6

k s+3

y(t)

s+3 s−2 Figura 2.40: Schema a blocchi del sistema dell’Esercizio 2.9 x β

xxxxxx xxxxxx xxxxxx xxxxxx xxxxxx xxxxxx xxxxxx xxxxxx xxxxxx xxxxxx xxxxxx xxxxxx xxxxxx xxxxxx xxxxxx xxxxxx xxxxxx xxxxxx xxxxxx xxxxxx xxxxxx xxxxxx xxxxxx xxxxxx xxxxxx xxxxxx xxxxxx xxxxxx xxxxxx xxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

molla non lineare

M

u

Figura 2.41: Sistema meccanico non lineare dell’Esercizio 2.11 Esercizio 2.13 Determinare una rappresentazione i–s–u del circuito in Fig. 2.42.

Esercizio 2.14 Determinare una rappresentazione i–s–u del circuito in Fig. 2.43. Esercizio 2.15 Determinare i valori di k tali che il sistema in Fig. 2.44 `e asintoticamente stabile, e scelto un valore di k 6= 0 a piacere la risposta a regime al segnale di ingresso u(t) = 5δ−1 (t − 5). Esercizio 2.16 Determinare una rappresentazione i–s–u del sistema meccanico36 in Fig. 2.45 assumendo come ingresso la forza f e come uscita la posizione della massa m. Trovare la risposta nell’uscita al segnale di ingresso f (t) = sin(t)δ−1 (t). Esercizio 2.17 Dato il sistema LTI in Fig. 2.46 con RC = 0.5 s e RC2 = 1 s, determinare i valori di k tali che il sistema `e esternamente stabile e una sua rappresentazione i–s–u. 35 36

Avendo assegnato solo la f.d.t., le condizioni iniziali si intendono nulle. Non si consideri la forza di gravit` a.

2.9. Esercizi

121 R

C R

R

-

-

U (s)

C

+

R

+

R

Y (s)

R

+

Figura 2.42: Circuito elettrico dell’Esercizio 2.13 R

R L

R

-

-

U (s)

C

+ +

Y (s)

Figura 2.43: Circuito elettrico dell’Esercizio 2.14 Esercizio 2.18 Data la rappresentazione i–s–u x˙ =

0 1 c b

!

x+

0 1

!

u

y = ( 5 0 )x trovare b e c tali che il sistema abbia un tempo di assestamento all’1% di circa 9.2 s e una sovraelongazione del 20%.

122

Capitolo 2. Analisi dei sistemi a tempo continuo

u(t) s+2 s2 + 4s

k

y(t)

- +

s+5 s−4

Figura 2.44: Schema a blocchi dell’Esercizio 2.15

xxxxxxxxxxxxxxx xxxxxxxxxxxxxxx xxxxxxxxxxxxxxx xxxxxxxxxxxxxxx xxxxxxxxxxxxxxx

xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx

xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx

xxxxxxxxxxxxxxx xxxxxxxxxxxxxxx xxxxxxxxxxxxxxx xxxxxxxxxxxxxxx xxxxxxxxxxxxxxx

k2 k1

k1 m f xxxxxxxxxxxxxx xxxxxxxxxxxxxx xxxxxxxxxxxxxx xxxxxxxxxxxxxx xxxxxxxxxxxxxx

β k2

xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx

xxxxxxxxxxxxxxx xxxxxxxxxxxxxxx xxxxxxxxxxxxxxx xxxxxxxxxxxxxxx xxxxxxxxxxxxxxx

xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx

Figura 2.45: Sistema meccanico dell’Esercizio 2.16

2.9. Esercizi

123

C

R

R -

u(t)

R

v(t)

+

k s+5

C

z(t)

R

y(t)

C2

-

R +

Figura 2.46: Schema a blocchi del sistema dell’Esercizio 2.17

CAPITOLO 3

Analisi dei sistemi a tempo discreto

In questo capitolo viene affrontata l’analisi dei sistemi a tempo discreto, in cui la variabile indipendente non pu` o variare con continuit` a ma `e costretta ad assumere valori in un insieme discreto1 . La variabile dipendente, al contrario, (l’evoluzione dello stato o dell’uscita del sistema) pu` o ancora assumere valori con continuit` a. La successione seguita nella trattazione `e strettamente connessa a quanto fatto per i sistemi a tempo continuo: descrizione dei sistemi nel dominio del tempo, analisi in un dominio trasformato, mentre l’analisi in frequenza `e rimandata al capitolo successivo. Importante `e evidenziare che, se anche la forma di sistema discreto pi` u ovvio che si possa pensare deriva dalla discretizzazione di un sistema continuo, esistono sistemi intrinsecamente discreti, come si vedr` a nel prossimo paragrafo.

3.1

Le equazioni alle differenze

Alcuni fenomeni naturali e numerosi sistemi artificiali hanno un comportamento che tende ad evolvere solo in corrispondenza di specifici istanti di tempo. Nel seguito vedremo diversi esempi di sistemi di questo tipo. Nel Capitolo 1 abbiamo visto come i sistemi a tempo continuo sono modellabili tramite equazioni differenziali che regolano l’evoluzione delle variabili di stato e di uscita in dipendenza dagli ingressi applicati dall’esterno. L’analogo a tempo discreto dell’equazione 1 Si ricorda che un insieme `e discreto quando pu` o essere messo in corrispondenza biunivoca con l’insieme dei numeri interi.

125

126

Capitolo 3. Analisi dei sistemi a tempo discreto f (t)

uk

0

xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

a

a+T

xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx

T

xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx

a + kT a + (k + 1)T

b t

Figura 3.1: Metodo di integrazione per rettangoli differenziale `e l’equazione alle differenze. Per introdurla consideriamo il seguente esempio.

Esempio 3.1 Si consideri il processo di integrazione approssimata di una funzione f (t) definita su un intervallo [a, b] tramite rettangoli. Suddividiamo l’intervallo in n intervalli uguali con passo T (n = (b − a)/T ). Come riportato in Fig. 3.1, la funzione integranda `e approssimata su ogni intervallo [kT, (k + 1)T ] da un rettangolo di base T e altezza f (kT ) e quindi `e globalmente sostituita da un plurirettangolo la cui area approssima sempre meglio l’area di f (t) quanto pi` u piccolo `e il passo T . Il processo di integrazione avviene aggiungendo ad ogni passo l’area di un nuovo rettangolo all’area calcolata in precedenza; espresso in simboli, se yk `e l’area al passo k, l’area al passo successivo sar` a yk+1 = yk + T uk , (3.1) dove si `e posto uk = f (kT + a). L’equazione a cui siamo giunti nell’Esempio 3.1 prende il nome di equazione alle differenze e la sua forma pi` u generale `e2 y(k + n) + f (y(k + n − 1), y(k + n − 2), . . . , y(k)) = u(k) . Come per le equazioni differenziali, anche per le equazioni alle differenze si pongono problemi di esistenza e unicit` a della soluzione e di definizione delle condizioni iniziali. Vale la seguente 2

Da ora in poi si useranno indifferentemente le notazioni yk e y(k).

3.1. Le equazioni alle differenze

127

Definizione 3.1 L’ordine di un’equazione alle differenze `e pari alla differenza fra il pi` u alto e il pi` u basso indice che appare nell’equazione. Ancora una volta il numero di condizioni iniziali richieste `e pari all’ordine dell’equazione. Ad esempio l’equazione yk+2 = yk `e di ordine 2 e richiede per essere risolta le condizioni iniziali y0 = a e y1 = b. Per quanto riguarda l’esistenza e l’unicit` a della soluzione la situazione `e molto pi` u semplice del suo analogo continuo, in quanto queste due propriet` a sono assicurate solo dalla definitezza della funzione f . Ancora una volta consideriamo equazioni lineari y(k + n) + a1 (k)y(k + n − 1) + · · · + an (k)y(k) = b0 (k)u(k + n) + · · · + bn (k)u(k) e in particolare stazionarie y(k + n) + a1 y(k + n − 1) + · · · + an y(k) = b0 u(k + n) + · · · + bn u(k) .

(3.2)

Esiste una stretta affinit` a fra la teoria delle equazioni differenziali lineari e quella delle equazioni alle differenze. In particolare ancora una volta si definisce un’equazione omogenea associata all’equazione alle differenze completa e la soluzione generale sar` a pari alla soluzione generale dell’omogenea associata e una soluzione particolare dell’equazione completa. Il nome “equazione alle differenze” `e dovuto al fatto che questo tipo di equazione pu` o essere rappresentata facendo uso degli operatori di differenza, che sono definiti nel seguente modo: ∆yk ∆2 y k ∆n y k

= = =

yk+1 − yk ∆yk+1 − ∆yk ∆n−1 yk+1 − ∆n−1 yk

(differenza prima) (differenza seconda) (differenza n–esima)

Ad esempio l’equazione yk+2 + a1 yk+1 + a2 yk = buk pu` o essere riscritta, come `e semplice verificare, ∆2 yk + (a1 + 2)∆yk + (a1 + a2 + 1)yk = buk . Nel seguito per`o non faremo uso degli operatori di differenza, per cui assumeremo la forma generale dell’equazione alle differenze la (3.2) come rappresentazione ingresso–uscita di sistemi LTI a tempo discreto.

128

Capitolo 3. Analisi dei sistemi a tempo discreto

3.1.1

Gli algoritmi

L’esempio dell’integrazione per rettangoli illustra un caso in cui l’equazione alle differenze sorge naturalmente da un processo algoritmico. Altri esempi di questo tipo sono: • Integrazione per rettangoli in avanti, in cui il valore della funzione `e quello alla fine dell’intervallo piuttosto che all’inizio: yk+1 = yk + T uk+1 • Integrazione per trapezi, in cui l’area nel singolo intervallo [kT, (k + 1)T ] `e approssimata da un trapezio piuttosto che da un rettangolo (vedi Fig. 3.2) yk+1 = yk +

T (uk + uk+1 ) 2

(3.3)

• Derivazione numerica (approssimata al primo ordine), in cui la derivata `e approssimata dal rapporto incrementale: y(kT ˙ )≈

y((k + 1)T ) − y(kT ) T

che pu` o essere usata per risolvere numericamente equazioni differenziali, ad esempio una soluzione approssimata di y˙ = ay sar` a data da y(k + 1) = (1 + aT )y(k)

3.1.2

Processi intrinsecamente discreti

Gli esempi visti derivano sostanzialmente da un processo di discretizzazione eseguito sul continuo. Esistono per` o problemi che sono intrinsecamente discreti. Esempio 3.2 Si consideri ad esempio la Letter Chain, che si formula nel seguente modo: si supponga di ricevere una lettera che contenga un elenco di sei nomi e indirizzi. La lettera chiede di spedire 1 e alla prima persona dell’elenco, poi di riscrivere la lettera cancellando il primo nome e aggiungendo il proprio in coda e spedirne cinque copie ad altrettanti amici. La lettera assicura che in questo modo si pu` o ricevere una cifra che arriva fino a 15625 e. Possiamo analizzare questo processo in termini di equazioni alle differenze. Posto infatti y(k) il numero di lettere al passo k, in cui la lettera che si `e ricevuta corrisponde a y(0) = 1, al passo successivo si produrranno 5 lettere, quindi y(1) = 5, ognuna delle quali ne generer` a altre 5 e cos`ı via; in generale si avr` a y(k + 1) = 5y(k) .

3.1. Le equazioni alle differenze

129

uk+1 uk

xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

t0

t1

t2

xxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx

T

tk

tk+1

t

Figura 3.2: Metodo di integrazione per trapezi La soluzione di questa equazione, con y(0) = 1 `e y(k) = 5k . Secondo le istruzioni della lettera al sesto passo il proprio nome sar` a passato in cima alla lista, quindi, nell’ipotesi che la catena non sia stata interrotta, si riceveranno y(6) = 56 = 15625 lettere, ognuna contenente 1 e, ottenendo cos`ı 15625 e. Altri processi intrinsecamente discreti sono quelli finanziari riguardanti il calcolo di interessi e ammortamenti. Esempio 3.3 Supponiamo di depositare in banca la somma u(k) all’inizio dell’anno k. Se indichiamo con y(k) la somma presente sul proprio conto all’inizio dell’anno k si avr` a: • se la banca non paga interessi la somma sar` a (nell’ipotesi che non avvengano prelievi) semplicemente un accumulo di capitale secondo la legge y(k + 1) = y(k) + u(k) • se la banca paga un interesse annuo semplice percentuale pari a I avremo y(k + 1) = (1 + I)y(k) + u(k) Analogamente se si contrae un debito con un certo tasso di interesse, il processo di ammortamento pu` o essere descritto con equazioni alle differenze.

130

Capitolo 3. Analisi dei sistemi a tempo discreto

Esempio 3.4 L’ammortamento a tasso di interesse annuale fisso I `e un metodo per saldare un debito iniziale tramite rate fisse in genere pagate a intervalli di tempo costanti. Se si effettuano pagamenti costanti U alla fine di ogni anno, il debito residuo d(k) soddisfa l’equazione d(k + 1) = (1 + I)d(k) − U con condizione iniziale d(0) = D, dove D `e il debito inizialmente contratto. Si supponga di volere estinguere completamente il debito dopo n anni. E` possibile dimostrare, con gli strumenti che saranno forniti nei prossimi paragrafi, che la soluzione generale `e 1 − (1 + I)n d(n) = D(1 + I)n − U. 1 − (1 + I) Ponendo d(n) = 0 possiamo ricavare la somma U da pagare annualmente U=

ID . 1 − (1 + I)−n

` chiaro che questi esempi sono intrinsecamente discreti: sarebbe assurdo E pensare di depositare denaro o estinguere debiti con continuit` a nel tempo!

3.1.3

La rappresentazione ingresso–stato–uscita

Ricordiamo che per i sistemi LTI a tempo continuo la cui evoluzione era rappresentata da un’equazione differenziale di ordine superiore al primo `e stato necessario introdurre la rappresentazione ingresso–stato–uscita. Analogamente, nel caso tempo discreto, quando l’equazione alle differenze `e di ordine superiore al primo, allora `e opportuno descrivere il sistema con una rappresentazione i–s–u, che risulta essere del tipo x(k + 1) = Ax(k) + Bu(k) y(k) = Cx(k) + Du(k)

(3.4) (3.5)

dove la prima equazione `e un sistema di equazioni alle differenze tutte del primo ordine e le matrici A, B, C, D hanno la stessa denominazione di quelle della i–s–u dei sistemi a tempo continuo (1.7),(1.8).

Esempio 3.5 Data l’equazione alle differenze yk+2 + 3yk+1 + 2yk = 5uk ,

3.1. Le equazioni alle differenze

131 ξk+1

ξk+2

uk

ξk

−a1 −a2 Figura 3.3: Passo intermedio per la realizzazione se si effettuano le posizioni x1 (k) = yk ,

x2 (k) = yk+1

si ha x1 (k + 1) = x2 (k) x2 (k + 1) = −3x2 (k) − 2x1 (k) + 5u(k) y(k) = x1 (k) che in forma matriciale si scrivono xk+1 = yk =



0 1 −2 −3 1 0



!

xk +

0 5

!

uk

xk

Naturalmente, quando l’equazione alle differenze `e pi` u complessa, cio`e presenta anche termini del tipo uk+j , allora occorre riferirsi a una procedura sistematica di realizzazione, che permetta di passare da una rappresentazione i–u ad una rappresentazione i–s–u. Analogamente a quanto visto nel Capitolo 1, vedremo degli algoritmi sistematici che ci consentono di risolvere il problema. Si consideri un sistema la cui rappresentazione i–u sia yk+2 + a1 yk+1 + a2 yk = b0 uk+2 + b1 uk+1 + b2 uk

(3.6)

e sia ξ la soluzione dell’equazione ξk+2 + a1 ξk+1 + a2 ξk = uk .

(3.7)

Supponiamo ora che le condizioni iniziali nelle (3.6), (3.7) siano nulle. In questa ipotesi `e possibile sfruttare la linearit` a delle equazioni per ottenere una

132

Capitolo 3. Analisi dei sistemi a tempo discreto b0

uk

x2k+1

x2k

x1k

b1 − b0 a1

yk

b2 − b0 a2 −a1 −a2 Figura 3.4: Forma canonica di controllo

equazione che definisca l’uscita y della (3.6) in funzione delle variabili ausiliarie ξ ottenute dalla (3.7). Infatti l’ingresso applicato alla (3.6) `e una combinazione lineare di quello applicato alla (3.7), quindi l’uscita y sar` a esprimibile come yk = b0 ξk+2 + b1 ξk+1 + b2 ξk .

(3.8)

La realizzazione della (3.7) pu` o essere ottenuta ricavando ξk+2 in funzione dei valori passati ξk+1 e ξk e dell’ingresso uk ξk+2 = uk − a1 ξk+1 − a2 ξk ,

(3.9)

il cui schema a blocchi corrispondente `e quello di Fig. 3.3, dove si vede che per la realizzazione sono necessari gli elementi di ritardo unitario, i quali forniscono in uscita, istante per istante, il valore dell’ingresso all’istante di tempo precedente. ` chiaro quindi che le eventuali condizioni iniziali vanno inserite proprio come E uscite all’istante iniziale di tali blocchi. Per determinare ora l’uscita, osserviamo che le variabili ξk , ξk+1 , ξk+2 sono disponibili all’uscita degli elementi di ritardo, quindi si ottiene lo schema a blocchi illustrato in Fig. 3.4. A questo punto la rappresentazione i–s–u `e ottenuta semplicemente ponendo x1k = ξk , x2k = ξk+1 , che soddisfano le equazioni x1 (k + 1) = x2 (k) x2 (k + 1) = −a2 x1 (k) − a1 x2 (k) + u(k) y(k) = (b2 − b0 a2 )x1 (k) + (b1 − b0 a1 )x2 (k) + b0 u(k) che in forma matriciale diventano xk+1 =

0 1 −a2 −a1

!

xk +

0 1

!

uk

3.1. Le equazioni alle differenze rk

+ -

ek

Calcolatore

uk

133 u(t) Processo

D/A

y(t)

t. continuo

A/D

yk

Figura 3.5: Sistema di controllo in retroazione digitale T uk

ZOH

u(t) Processo

y(t)

yk

t. continuo

Figura 3.6: Schema di sistema a dati campionati yk = (b2 − b0 a2

b1 − b0 a1 )xk + b0 uk .

Questa forma di rappresentazione `e detta forma canonica di controllo e pu` o facilmente essere generalizzata al caso di un sistema di ordine n > 2. Infine, `e possibile anche far riferimento a forme canoniche diverse, ad esempio quella canonica di osservazione.

3.1.4

I sistemi a dati campionati

Probabilmente la configurazione in cui nel mondo fisico emergono con maggiore evidenza i sistemi discreti si ha quando un processo fisico a tempo continuo `e pilotato da un ingresso calcolato a intervalli di tempo prefissati. L’esempio pi` u diffuso riguarda il controllo di un processo fisico con un calcolatore digitale, come in Fig. 3.5. Senza scendere troppo nei dettagli, che esulano dai limiti di questo corso, possiamo dire che il segnale di errore ek fra i campioni dell’uscita yk e il riferimento discreto rk `e processato dal computer che genera i campioni uk del segnale di controllo, che vengono infine convertiti in un segnale di controllo continuo u(t). Il problema `e quello di vedere come si comporta l’intero sistema agli istanti di campionamento kT , k = 0, 1, . . .. A questo scopo `e chiaro che dobbiamo analizzare il legame che esiste fra le variabili uk e yk , quindi il nostro obbiettivo si restringe allo studio dello schema di Fig. 3.6 dove il convertitore analogico/digitale (A/D) `e schematizzato con un semplice campionatore, e quello digitale/analogico con una Tenuta di Ordine Zero (Zero Order Hold), ovvero un dispositivo che mantiene costante per l’intero periodo di campionamento il segnale acquisito all’istante t = kT (vedi Fig. 3.7).

134

Capitolo 3. Analisi dei sistemi a tempo discreto u(t) uk uk+1 T

tk

t1

t0

tk+1

t

Figura 3.7: Uscita del filtro ZOH Il segnale di ingresso `e quindi mantenuto costante per l’intero periodo T e genera una evoluzione dell’uscita che ci proponiamo di esaminare agli istanti di campionamento. Si noti che, essendo il sistema P (s) continuo, avremo una evoluzione di y(t) lungo l’intero periodo T , ma il nostro obiettivo `e solo studiare come evolve l’uscita agli istanti di campionamento, ignorando l’evoluzione fra un campione e l’altro. Per fare ci` o, supponiamo di conoscere una rappresentazione i–s–u del sistema a tempo continuo x˙ = Ax + Bu y = Cx + Du

(3.10) (3.11)

e determiniamo la rappresentazione i–s–u del sistema a dati campionati rappresentato in Fig. 3.6. A tale scopo basta applicare l’equazione che fornisce la risposta nello stato di un sistema LTI a tempo continuo (2.44) qui di seguito riscritta per un istante di tempo iniziale generico t0 x(t) =

Z

t t0

eA(t−τ ) Bu(τ )dτ + eA(t−t0 ) x0

con t0 = kT e t = (k + 1)T , tenendo conto che l’ingresso u(t) nell’intervallo [kT, (k + 1)T ] `e costante e pari a u(kT ). x((k + 1)T ) =

Z

(k+1)T

kT

eA((k+1)T −τ ) Bu(kT )dτ + eAT x(kT )

Indicando con fk = f (kT ) il valore della generica funzione f (t) al k−mo istante di campionamento, ed effettuando la sostituzione σ = (k + 1)T − τ , si ha xk+1 = eAT xk +

Z

0

T

eAσ dσBuk = Ad xk + Bd uk

3.1. Le equazioni alle differenze

135

dove3, AT

Ad = e

,

Bd =

Z

T

eAσ dσB

0

sono le matrici della rappresentazione i–s–u cercata. Per il calcolo di eAT conviene diagonalizzare A, per cui eAT = U eΛT U −1 , dove Λ e U sono le matrici degli autovalori e degli autovettori di A, rispettivamente (vedi Appendice B). ` altres`ı evidente che le matrici dell’equazione di uscita sono identiche a quella E dell’equazione a tempo continuo (3.11) essendo questa algebrica. Vediamo un esempio.

Esempio 3.6 Dato il sistema a tempo continuo x˙ = y = (1

0 1 −6 −5

!

x+

 

0 1

u

1)x

determiniamo la sua versione a dati campionati con tempo di campionamento T = 0.1 s. Per calcolare la matrice dinamica Ad conviene prima diagonalizzare A, calcoliamone, quindi, la matrice degli autovalori Λ = diag{λ1 , λ2 } det(λI − A) = λ2 + 5λ + 6 = 0 ⇒ λ1 = −2, λ2 = −3 e quella degli autovettori U = ( u1 Au1 = λ1 u1 ,

0 1 −6 −5

Au2 = λ2 u2 ,

0 1 −6 −5

! 

x y

! 

x y

u2 ) =

−2x −2y

=

−3x −3y

! !



(



(

x=1 ⇒ u1 = y = −2

1 −2

x=1 ⇒ u2 = y = −3

1 −3

! !

Di conseguenza, risulta AT

Ad = e

ΛT

= Ue

U

−1

1 1 = −2 −3

!

e−2T 0

0 e−3T

!

!−1

1 1 0.97 0.08 = −2 −3 −0.47 0.59

!

Poich´e la matrice A `e invertibile, la matrice degli ingressi del sistema a dati campionati ha l’espressione notevole −1

Bd = A 3

(Ad − I)B =

0 1 −6 −5

!−1

0.97 − 1 0.08 −0.47 0.59 − 1

!

0 1

!

=

0.004 0.078

!

Nel caso in cui A non ha autovalori nell’origine, risulta Bd = [A−1 eAσ ]T0 B = A−1 (eAT −I)B.

136

Capitolo 3. Analisi dei sistemi a tempo discreto

0.25

yk

0.2

y(t),

0.15 0.1 0.05 0 0

1

2

3

t, k

Figura 3.8: Risposta indiciale del sistema dell’Esempio 3.6 Le matrici dell’equazione algebrica di uscita non cambiano, quindi la i–s–u del sistema a dati campionati `e xk+1 = yk = ( 1

0.97 0.08 −0.47 0.59

!

xk +

0.004 0.078

!

uk

1 ) xk

In Fig. 3.8 `e mostrata la risposta indiciale del sistema a tempo continuo sovrapposta a quella del corrispondente sistema a dati campionati. Come si vede, in corrispondenza degli istanti di campionamento, le due risposte coincidono.

3.2

La trasformata Z

In questo paragrafo presentiamo un operatore che `e l’analogo discreto della trasformata di Laplace nel continuo. In particolare, data la sequenza {xk }, se ne definisce la Z–trasformata come X(z) = Z{xk } =

+∞ X

k=−∞

xk z −k ,

r0 ≤ |z| ≤ R0

(3.12)

Come si pu` o notare, la regione di convergenza `e una corona circolare con centro nell’origine del piano complesso e, si pu` o dimostrare, diventa l’esterno di un cerchio se la sequenza `e nulla per k < a. Di seguito vengono enunciate alcune propriet` a della trasformata Z che sono di interesse per l’analisi del comportamento dinamico dei sistemi discreti.

3.2. La trasformata Z • Linearit` a.

137

Z[αa(k) + βb(k)] = αA(z) + βB(z)

• Traslazione nel tempo. Z[a(k + n)] = z n A(z) • Scalatura in z.

n∈Z

Z[r −k a(k)] = A(rz)

• Valore finale. Se A(z) converge per |z| > 1 e tutti i poli di (z − 1)A(z) sono interni al cerchio unitario, allora lim a(k) = lim (z − 1)A(z) z→1

k→+∞

Vediamo qualche esempio di calcolo di Z–trasformata tramite la definizione. Esempio 3.7 Definito l’impulso unitario come δk = la sua Z–trasformata `e Z[δk ] =

(

+∞ X

1 k=0 0 k= 6 0

δk z −k = 1z 0 = 1

k=−∞

In base a questa trasformata notevole e alle propriet` a su enunciate `e possibile calcolare la trasformata del gradino. Esempio 3.8 Definita la sequenza a gradino unitario come δ−1 (k) =

(

0 k 1

−1 k < 0 0 k≥0

otteniamo X(z) =

−1 X

k=−∞

−z

−k

=−

+∞ X

k=0

!

k

z −1 =

z , z−1

|z| < 1

Quindi le trasformate sono uguali, ma cambia la regione di convergenza. Poich´e i sistemi che studieremo saranno sempre causali, la nostra regione di convergenza sar`a sempre l’esterno di un cerchio centrato nell’origine. Come nel caso tempo continuo, per poter trattare il caso di segnali nulli per k < 0, `e possibile introdurre la trasformata Z unilatera +∞ X

+

Z [x(k)] =

xk z −k

(3.13)

k=0

per la quale vanno rienunciate le due propriet` a • Traslazione nel tempo. Z + [a(k + 1)] = zA(z) − za(0) Z + [a(k + n)] = z n A(z) − z n

n−1 X

a(k)z −k ,

n>1

k=0

• Convoluzione4 . 

Z + [ak ∗ bk ] = Z + 

k X

j=0

4



aj bk−j  = A(z)B(z)

Si noti che per sequenze nulle per k < 0, si ha ak ∗ bk =

Pk

j=0

aj bk−j =

Pk

j=0

ak−j bj .

140

Capitolo 3. Analisi dei sistemi a tempo discreto

3.3

Risposta dei sistemi lineari tempo invarianti

Per comprendere come lo strumento matematico della Z–trasformata possa essere utile per calcolare la risposta di un sistema LTI tempo discreto, analizziamo il caso della regola di integrazione per trapezi (3.3), che riportiamo traslata di un passo indietro: T yk = yk−1 + (uk + uk−1 ) . (3.14) 2 Definita +∞ X

Y (z) =

yk z −k ,

k=−∞

moltiplichiamo ambo i membri della (3.14) per z −k e sommiamo +∞ X

yk z −k =

k=−∞

+∞ X



+∞ X

+∞ X



T  uk z −k + uk−1 z −k  . 2 k=−∞ k=−∞

yk−1 z −k +

k=−∞

(3.15)

Si osservi che, posto j = k − 1, il termine +∞ X

yk−1 z −k

k=−∞

si riscrive z −1

+∞ X

j=−∞

yj z −j = z−1 Y (z) ,

quindi la (3.15) fornisce Y (z) = z −1 Y (z) +

 T  U (z) + z −1 U (z) 2

Lo stesso risultato lo si ottiene Z–trasformando la (3.14) e sfruttando la propriet` a di traslazione nel tempo. In definitiva, risulta Y (z) =

T 1 + z −1 U (z) , 2 1 − z −1

da cui ricaviamo una funzione di trasferimento discreta W (z) =

Y (z) T 1 + z −1 T z+1 = = . −1 U (z) 2 1−z 2 z−1

Nel caso generale, per un’equazione alle differenze della forma yk = −a1 yk−1 − a2 yk−2 − · · · − an yk−n + b0 uk + b1 uk−1 + · · · + bm uk−m (3.16)

3.3. Risposta dei sistemi lineari tempo invarianti uk

+

T /2

141 yk

+

+

+

uk−1

yk−1

z −1

z −1

Figura 3.9: Schema dell’integrazione per trapezi la f.d.t. si ottiene Z–trasformando e applicando la propriet` a di traslazione nel tempo a partire da condizioni iniziali nulle W (z) =

b0 z n + b1 z n−1 + · · · + bm z n−m b0 + b1 z −1 + · · · + bm z −m = . 1 + a1 z −1 + · · · + an z −n z n + a1 z n−1 + · · · + an

(3.17)

Analogamente al caso continuo, la trasformata dell’uscita `e quindi Y (z) = W (z)U (z) .

(3.18)

Continueremo a chiamare poli e zeri del sistema le radici dei polinomi al denominatore e al numeratore della f.d.t. Possiamo ora dare un significato fisico alla variabile z: siano tutti nulli i coefficienti della (3.17) tranne b1 = 1; allora si ha W (z) = z −1 a cui, dalla (3.16), corrisponde yk = uk−1 , quindi l’uscita `e pari all’ingresso ritardato di un campione (o di un periodo, se lo vediamo nel tempo). Possiamo quindi interpretare la funzione di trasferimento z −1 come un ritardo unitario. Si noti che le equazioni alle differenze sono composte solo da ritardi, prodotti per costanti e somme, quindi possiamo schematizzarle facendo uso solo di questi tre operatori. Ad esempio la regola di integrazione per trapezi si pu` o schematizzare come in Fig. 3.9. Tuttavia si pu` o notare come il numero di elementi di ritardo usati (due) `e maggiore dell’ordine del sistema (uno), difatti lo schema pu` o essere semplificato come in Fig. 3.10. La realizzazione di un sistema generico, cos`ı come spiegato nel Paragrafo 3.1.3, pu` o essere ottenuta facendo ricorso alle forme canoniche. Abbiamo gi` a visto come nel domino di z `e possibile ricavare la risposta nell’uscita di un sistema LTI tramite la relazione (3.18) valida se il sistema parte da condizioni iniziali nulle. Per trovare l’evoluzione del sistema quando parte da condizioni iniziali generiche x0 da un certo di istante di tempo (che assumeremo

142

Capitolo 3. Analisi dei sistemi a tempo discreto uk

T /2

yk

+ +

z −1 +

+

Figura 3.10: Schema dell’integrazione per trapezi semplificato pari a 0), allora basta trasformare le (3.4),(3.5) secondo la trasformata unilatera e applicarne la propriet` a di traslazione nel tempo con n = 1, ottenendo zX(z) − zx(0) = AX(z) + BU (z) Y (z) = CX(z) + DU (z) da cui si ricava la risposta nel dominio di z X(z) = (zI − A)−1 BU (z) + z(zI − A)−1 x0 Y (z) =



(3.19)



C(zI − A)−1 B + D U (z) + zC(zI − A)−1 x0

(3.20)

che confrontate con la (3.18) ci dicono che la f.d.t. di un sistema tempo discreto pu` o essere ricavata a partire dalla sua rappresentazione i–s–u con la formula W (z) = C(zI − A)−1 B + D .

(3.21)

Da tale espressione si vede che anche nel caso discreto i poli della f.d.t. coincidono con gli autovalori della matrice dinamica A se non ci sono cancellazioni tra le radici del numeratore e del denominatore. D’ora in poi assumeremo sempre verificata tale ipotesi e cio`e che la realizzazione del sistema sia sempre minima. Dall’esame delle equazioni appena ricavate, si vede che la risposta, sia nello stato che nell’uscita, `e somma del termine di evoluzione libera, dovuta alle condizioni iniziali, e della risposta forzata, dovuta all’ingresso. Si pu` o inoltre dimostrare che antitrasformando si ottengono le risposte nel dominio del tempo nella forma5 x(k) =

k−1 X

Ak−i−1 Bu(i) + Ak x0 ,

i=0 k−1 X

y(k) = C

k≥0

Ak−i−1 Bu(i) + Du(k) + CAk x0 ,

i=0

5

Per k = 0 il contributo delle sommatorie non va considerato.

(3.22) k≥0

(3.23)

3.3. Risposta dei sistemi lineari tempo invarianti

143

in cui si riconosce che l’evoluzione forzata dell’uscita `e la somma di convoluzione della risposta impulsiva w(k) = CAk B + Dδ(k) (3.24) con l’ingresso. Notiamo esplicitamente che la (3.22) si pu` o anche ottenere applicando iterativamente l’equazione di stato (3.4) a partire dalla condizione iniziale o x(0) = x0 . Dunque, anche nel caso discreto, la risposta di un sistema LTI pu` essere decomposta in un’evoluzione libera (il termine dipendente dalle condizioni iniziali) e un’evoluzione forzata (il termine dipendente dall’ingresso applicato). Anche nel caso discreto troviamo il legame fra f.d.t. e risposta all’impulso visto nel caso continuo. Infatti, ricordando la (3.18) e che la trasformata di un impulso `e unitaria, ad un ingresso impulsivo corrisponde l’uscita Y (z) = W (z), per cui vale la relazione W (z) = Z[w(k)]/Z[δ(k)]

(3.25)

dove con w(k) abbiamo indicato la risposta impulsiva. Dalla (3.25) si deduce che per calcolare la risposta impulsiva `e sufficiente Z–antitrasformare la f.d.t. e, viceversa, per calcolare la f.d.t. basta Z–trasformare la risposta impulsiva.

3.3.1

Metodi di antitrasformazione

Abbiamo visto che la Z–trasformata gioca lo stesso ruolo della trasformata di Laplace come strumento per il calcolo della risposta di un sistema LTI. Si pone quindi il problema di antitrasformare una F (z). Formalmente l’antitrasformata `e definita dalla relazione I 1 dz f (k) = F (z)z k 2πj z dove l’integrale `e calcolato su una qualunque circonferenza contenuta nella regione di convergenza. Ancora una volta questa formula risulta di difficile applicazione, per cui si ricorre a metodi alternativi. Una prima possibilit` a, peculiare della trasformata discreta, si ottiene osservando che il secondo membro della (3.13) `e un’espansione in serie di F (z) intorno all’infinito. Nel caso in cui F (z) sia un rapporto fra polinomi `e sufficiente eseguire la divisione per ottenere i coefficienti di f (k). A titolo di esempio si consideri l’integrazione per trapezi, la cui f.d.t. abbiamo visto essere T z+1 W (z) = 2 z−1 Considerando un ingresso a gradino la trasformata dell’uscita `e Y (z) = Eseguendo la divisione abbiamo

T z2 + z . 2 z 2 − 2z + 1

144

Capitolo 3. Analisi dei sistemi a tempo discreto z2 −z 2

+z +2z 3z −3z

−1 −1 +6 5 −5

z 2 − 2z + 1 1 + 3z −1 + 5z −2 + 7z −3 + · · · −3z −1 −3z −1 +10z −1 7z −1

−5z −2 −5z −2

e quindi y0 = T /2 3T /2 y1 = y2 = 5T /2 .. .. .. . . . yk = kT + T /2 Un secondo metodo per calcolare l’antitrasformata `e usare lo sviluppo in fratti semplici, analogamente a quanto fatto con Laplace. La differenza principale rispetto a quanto fatto in precedenza `e che conviene espandere in fratti semplici rispetto a z la funzione F (z)/z. Per comprendere il perch´e calcoliamo le seguenti trasformate notevoli. Esempio 3.10 Consideriamo la funzione esponenziale u(k) =

(

0 k |r|

Esempio 3.11 Consideriamo il segnale sinusoidale x(k) = cos(θk)δ−1 (k) esprimendolo come

ejθk + e−jθk δ−1 (k) . 2 Usando la trasformata del segnale esponenziale, calcolata nell’Esempio 3.10, abbiamo x(k) =

X(z) = =



 1 1 z z Z[(ejθ )k ] + Z[(e−jθ )k ] = + 2 2 z − ejθ z − e−jθ z(z − cos θ) 1 2z 2 − z(ejθ + e−jθ ) = 2 2 jθ −jθ 2 z − z(e + e ) + 1 z − 2z cos θ + 1



=

3.3. Risposta dei sistemi lineari tempo invarianti

145

Analogamente, si trova che la trasformata del seno vale Z[sin(θk)δ−1 (k)] =

z sin θ . z 2 − 2z cos θ + 1

Osservando che a numeratore delle trasformate notevoli appena calcolate compare sempre un termine monomio in z, per ottenere F (z) come sommatoria di trasformate notevoli occorre espandere in fratti semplici F (z)/z. Vediamo qualche esempio. Esempio 3.12 Volendo calcolare la risposta di un sistema tempo discreto che esegue l’algoritmo di integrazione per trapezi con periodo di campionamento T ad un segnale di ingresso esponenziale con r = 0.5, si ha Y (z) = W (z)U (z) =

T 1 + z −1 z2 + z 1 T = 2 1 − z −1 1 − 0.5z −1 2 (z − 1)(z − 0.5)

Espandendo in fratti semplici rispetto a z la funzione Y (z)/z si ha Y (z) T z+1 T = = z 2 (z − 1)(z − 0.5) 2



r2 r1 + z − 1 z − 0.5



dove i residui si trovano come al solito 

z+1 r1 = z − 0.5



= 4,

z=1



z+1 r2 = z−1



z=0.5

= −3

quindi la Z–trasformata della risposta vale Y (z) =

T 2



4

z z −3 z−1 z − 0.5



e ricordando le trasformate del gradino e dell’esponenziale possiamo antitrasformare y(k) =

 T  4 − 3(0.5)k δ−1 (k) . 2

Vediamo un esempio di antitrasformazione nel caso di radici reali multiple. Esempio 3.13 Determiniamo la risposta indiciale di un sistema a tempo discreto con f.d.t. z+1 W (z) = . z−1

146

Capitolo 3. Analisi dei sistemi a tempo discreto

Tenendo conto della trasformata del gradino unitario, la risposta nel dominio di z vale z+1 z z2 + z Y (z) = W (z)U (z) = = z−1z−1 (z − 1)2 che d` a luogo all’espansione

Y (z) z+1 r11 r12 = = + 2 2 z (z − 1) (z − 1) z−1 dove i residui si ottengono come r11 = [(z + 1)]z=1 = 2,

r12 =





d (z + 1) dz

=1 z=1

e quindi, tenendo conto della trasformata della rampa unitaria riportata in Appendice D, la risposta nel dominio del tempo vale y(k) = (2k + 1)δ−1 (k) .

Il caso in cui la funzione razionale fratta da antitrasformare presenta poli complessi e coniugati pu` o essere facilmente ricondotto a quello di poli reali. Infatti, sia p una radice del denominatore di Y (z)/z, allora anche p∗ lo `e. Se la coppia di radici complesse e coniugate `e unica, allora l’espansione in fratti semplici da considerare `e la seguente Y (z) A A∗ Az A∗ z = + ⇒ Y (z) = + z z − p z − p∗ z − p z − p∗ che antitrasformata d` a 



yk = Apk + A∗ (p∗ )k δ−1 (k) . Posto p = rejθ e A = |A|ej arg(A) si ottiene 







yk = |A|r k ej(θk+arg(A)) + e−j(θk+arg(A)) δ−1 (k) = 2|A|r k cos θk+arg(A) δ−1 (k) . (3.26)

Esempio 3.14 La risposta indiciale del sistema a tempo discreto del secondo ordine con poli complessi e coniugati in 0.71e±j1.93 W (z) =

z+1 z 2 + 0.5z + 0.5

3.3. Risposta dei sistemi lineari tempo invarianti vale Y (z) =

147

z2 + z . (z − 1)(z 2 + 0.5z + 0.5)

Scomponendo in fratti semplici Y (z)/z, si ottiene Y (z) =

z0.53e−j2.78 z z0.53ej2.78 + + z − 1 z − 0.71ej1.93 z − 0.71e−j1.93

che antitrasformata d` a 



yk = 1 + 1.06(0.71)k cos(1.93k + 2.78) δ−1 (k)

Una tabella di Z–trasformate `e riportata in Appendice D.

3.3.2

Modi di evoluzione

Finora abbiamo visto che la risposta di un sistema lineare a tempo discreto, cos`ı come quella dei sistemi lineari a tempo continuo, `e somma dell’evoluzione forzata, dovuta agli ingressi, e dell’evoluzione libera, dovuta alle condizioni iniziali. In questo paragrafo, analizzeremo le caratteristiche dell’evoluzione libera, in quanto essa `e l’unica che dipende esclusivamente dalle caratteristiche del sistema. Ricordando la (3.19), nel dominio di z l’evoluzione libera nello stato `e regolata dall’espressione Xl (z) = z(zI − A)−1 x0 quindi, nell’antitrasformare, nel denominatore dell’espansione in fratti semplici della funzione Xl (z)/z comparir` a il polinomio minimo della matrice dinamica, le cui radici sono gli autovalori della matrice dinamica stessa6 . In base agli esempi di antitrasformazione visti finora, possiamo dedurre che, nel dominio del tempo, l’evoluzione liber` a sar` a sempre combinazione lineare di termini del tipo km pk , m = 0, 1, 2, . . ., dove p `e un autovalore, in generale complesso, di A. Di conseguenza, l’andamento temporale dell’evoluzione libera sar` a una combinazione di andamenti elementari di funzioni del tipo k m pk ,

km r k cos(θk),

m = 0, 1, 2, . . .

dette modi propri di evoluzione del sistema, dove p `e il generico autovalore reale di A e rejθ `e il generico autovalore complesso di A. Ancora una volta i coefficienti della combinazione lineare sono costituiti dai residui delle scomposizioni in fratti semplici, per cui possono essere anche nulli, nel caso siano radici dei polinomi a numeratore. In tale eventualit` a `e chiaro che l’insieme di condizioni iniziali scelto 6 Che ipotizzeremo, se non diversamente indicato, coincidenti con i poli del sistema, cio`e le radici del denominatore della sua f.d.t.

148

Capitolo 3. Analisi dei sistemi a tempo discreto Im(z) periodico pseudoperiodico divergente pseudoperiodico convergente

costante

alternante

1

0

aperiodico divergente alternante

Re(z)

aperiodico convergente alternante

aperiodico convergente

aperiodico divergente

Figura 3.11: Modi di evoluzione di un sistema a tempo discreto non `e in grado di eccitare tutti i modi del sistema, tuttavia si pu` o dimostrare che `e sempre possibile eccitare tutti i modi della struttura con una scelta di opportune condizioni iniziali. In virt` u della (3.20), anche l’evoluzione libera nell’uscita Yl (z) = zC(zI − A)−1 x0 sar`a combinazione lineare degli stessi termini. In particolare, ciascun modo di evoluzione possiede un andamento tipico che dipende solo dalla posizione nel piano complesso dell’autovalore corrispondente e dalla sua molteplicit` a. Tali andamenti sono riassunti in Fig. 3.11. Notiamo che, a differenza dei modi di evoluzione dei sistemi a tempo continuo, compare un andamento cosiddetto alternante, legato alla presenza di autovalori reali negativi.

3.4

Stabilit` a

Per quanto riguarda la stabilit` a BIBO, si pu` o dimostrare che si ritrova come condizione necessaria e sufficiente la sommabilit` a della risposta impulsiva, cio`e Proposizione 3.1 Un sistema LTI con risposta impulsiva w(k) `e stabile BIBO se e solo se +∞ X

k=−∞

|w(k)| < +∞

3.4. Stabilit` a

149

Come per il continuo questa condizione non `e molto maneggevole da un punto di vista computazionale, per cui siamo interessati a un criterio di stabilit` a che sia basato sulla posizione dei poli del sistema. Come per i sistemi a tempo continuo, anche per i sistemi a tempo discreto, l’uscita pu` o essere scritta come Y (z) = W (z)U (z) =

nW (z) nU (z) dW (z) dU (z)

quindi, i poli di Y (z) sono i poli di U (z) (radici di dU (z)) e quelli del sistema (radici di dW (z)). Affinch´e l’uscita sia limitata, nell’espansione in fratti semplici di Y (z)/z devono comparire solo termini con poli di modulo minore di 1. Infatti, se il polo `e reale (p), ad esso corrisponde nel dominio del tempo una funzione del tipo pk convergente se |p| < 1; se il polo `e complesso (rejθ ) ad esso corrisponde nel dominio del tempo una funzione del tipo r k cos(θk) convergente se |r| < 1. Di conseguenza, nell’ipotesi di ingresso limitato, le radici di dU (z) saranno tutte in modulo minore di 1, per cui saranno i poli del sistema a dover essere di modulo minore di 1. In conclusione vale la seguente proposizione Proposizione 3.2 Un sistema LTI a tempo discreto `e stabile BIBO se e solo se ha tutti i poli in modulo minore di uno. Analogamente al caso dei sistemi a tempo continuo, anche per i sistemi a tempo discreto si pu` o introdurre il concetto di stabilit` a sotto perturbazioni o stabilit` a interna. Dall’analisi dei modi di evoluzione, risulta chiaro che Proposizione 3.3 Un sistema LTI tempo discreto `e 1. asintoticamente stabile se e solo se tutti gli autovalori della matrice dinamica sono in modulo minore di uno; 2. instabile se esiste almeno un autovalore della matrice dinamica in modulo maggiore di 1 o almeno un autovalore di modulo unitario ma di molteplict` a maggiore di uno come radice del polinomio minimo; 3. stabile se gli autovalori della matrice dinamica sono in modulo non maggiore di uno e quelli di modulo unitario sono di molteplicit` a unitaria come radici del polinomio minimo. Anche nel caso tempo discreto si trova, dunque, che la stabilit` a asintotica e quella BIBO sono equivalenti, nel caso di un sistema completamente controllabile e osservabile. A questo punto per stabilire la propriet` a di stabilit` a esterna o quella di stabilit` a interna, occorre un metodo che consenta di stabilire se le radici di un

150

Capitolo 3. Analisi dei sistemi a tempo discreto Im(z)

z=

1+s 1−s

Im (s)

xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

1

xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

0

0

Re(z)

Re(s)

Figura 3.12: Trasformazione bilineare polinomio7 sono in modulo minore di uno o no, senza calcolarle esplicitamente. La risposta `e affermativa, infatti il problema pu` o essere facilmente ricondotto a quello di stabilire se le radici di un polinomio sono a parte reale negativa o no, gi` a risolto con il criterio di Routh. Dato il polinomio in z p(z), vogliamo stabilire se le sue radici abbiano o no modulo minore di uno. Se facciamo il seguente cambiamento di variabili8 z=

1+s 1−s

(3.27)

la condizione |z| < 1 si traduce in |1 + s| < 1 ⇔ |1 + s|2 < |1 − s|2 ⇔ (1 + a)2 + b2 < (1 − a)2 + b2 |1 − s| dove a = Re(s) e b = Im(s). Risolviamo allora la disuguaglianza (1 + a)2 + b2 < (1 − a)2 + b2 ⇔ 1 + 2a + a2 < 1 − 2a + a2 ⇔ a < 0 dunque, abbiamo trovato che la trasformazione (3.27) non fa altro che trasformare la regione del piano complesso in z appartenente al cerchio di raggio unitario e centro nell’origine nel semipiano sinistro del piano complesso in s (vedi Fig. 3.12). Dunque, stabilire se le radici del polinomio p(z) hanno modulo minore di 1 `e equivalente a stabilire se le radici del polinomio a numeratore di p(z)|z=(1+s)/(1−s) sono a parte reale negativa. E sappiamo che tale problema si risolve con l’applicazione del criterio di Routh. 7

Il denominatore della f.d.t. per la stabilit` a BIBO, il polinomio minimo della matrice dinamica per la stabilit` a interna. 8 Si tratta della trasformazione bilineare corrispondente alla regola di integrazione per trapezi.

3.5. Comandi MATLAB

151

Esempio 3.15 Dato il polinomio p(z) = z 3 − 0.1z 2 + 0.01z − 0.004 per quanto detto, le sue radici sono di modulo minore di 1 se e solo se le radici del polinomio a numeratore ottenuto ponendo z = (1 + s)/(1 − s) sono a parte reale negativa q(s) = (1 + s)3 − 0.1(1 − s)(1 + s)2 + 0.01(1 − s)2 (1 + s) − 0.004(1 − s)3 = = 1.114s3 + 3.078s2 + 2.902s + 0.906 il quale, applicando il criterio di Routh, 3 2 1 0

1.114 2.902 3.078 0.906 2.574 0.906

ha sicuramente tutte radici a parte reale negativa e quindi p(z) ha tutte radici in modulo minore di 1. Accenniamo, infine, al calcolo della risposta a regime permanente ad un segnale costante U . Perch´e la risposta a regime esista finita e sia indipendente dalle condizioni iniziali, naturalmente, il sistema deve essere asintoticamente stabile in modo che l’evoluzione libera si estingua al passare del tempo. In tale ipotesi `e intuibile come il valore di regime dell’uscita sia pari al valore finale della risposta ad un gradino U δ−1 (k), per cui, applicando il teorema del valore finale, si ha y(+∞) = lim y(k) = lim (z − 1)Y (z) = lim (z − 1)W (z) k→+∞

z→1

z→1

Uz = [W (z)]z=1 U z−1

dove il valore [W (z)]z=1 `e il guadagno statico del sistema.

3.5

Comandi MATLAB

I comandi gi` a visti nel Paragrafo 2.8 per l’analisi dei sistemi a tempo continuo, possono essere adoperati anche per sistemi a tempo discreto, basta definire il sistema assegnandogli un periodo di campionamento T . Ad esempio, per determinare la risposta impulsiva del sistema W (z) = basta eseguire l’istruzione

z + 0.1 , z − 0.5

T = 0.001 s

152

Capitolo 3. Analisi dei sistemi a tempo discreto

>> [y,t,x]=impulse(tf([1 0.1],[1 -0.5],0.001)); Avendo adoperato i parametri di uscita, per tracciare il grafico della risposta impulsiva, ad esempio nell’uscita, occorre usare il comando grafico >> plot(t,y,’o’) per evitare che il MATLAB interpoli tra un campione e l’altro del vettore y. In alternativa, si pu`o usare il comando >> stem(t,y) che traccia una linea verticale in corrispondenza di ogni campione del vettore y. Infine, se si vuole ottenere il grafico dell’uscita di un organo di tenuta di ordine 0 alimentato da una sequenza i cui campioni sono memorizzati nella variabile x, allora si pu` o adoperare il comando >> stairs(x)

3.6

Esercizi

Esercizio 3.1 Determinare la rappresentazione a dati campionati con periodo di campionamento Ts = ln(2) s del sistema x˙ = y = (0

0 −4 1 −5

!

x+

1 0

!

u

1 )x

Ts uk

ZOH

u(t)

y(t) 3 s2 + 3s + 2

yk

Figura 3.13: Schema a blocchi del sistema dell’Esercizio 3.2 Esercizio 3.2 Determinare una rappresentazione i–s–u del sistema in Fig. 3.13, con Ts = ln(3/2) s.

3.6. Esercizi

153

Esercizio 3.3 Determinare la risposta nell’uscita del sistema xk+1 = yk = ( 1

0 1 0.06 0.5

!

xk +

0 1

!

uk ,

x(0) =

0 )xk

1 −1

!

al segnale di ingresso uk = 2δ−1 (k).

uk

z z + 0.4

yk

+ 4

+

z − 0.4 z + 0.6

Figura 3.14: Schema a blocchi del sistema dell’Esercizio 3.4 Esercizio 3.4 Determinare la risposta del sistema in Fig. 3.14, all’ingresso u(k) = (0.5)k δ−1 (k). uk + ek

-

vk = vk−1 + Hek−1

vk

ZOH

v(t) y˙ = −ay + bv

yk

y(t) Ts

Figura 3.15: Schema a blocchi del sistema dell’Esercizio 3.5 Esercizio 3.5 Determinare i valori di H tali che il sistema in Fig. 3.15, con Ts = 0.5 s, a = b = ln(25), `e asintoticamente stabile.

uk

+ -

z + 0.4 2 z + z − 0.1

+ +

1 z + 0.3

yk

Figura 3.16: Schema a blocchi del sistema dell’Esercizio 3.6

154

Capitolo 3. Analisi dei sistemi a tempo discreto uk

z z − 0.5

+ -

z + 0.1 2 z −z+1

yk

H

Figura 3.17: Schema a blocchi del sistema dell’Esercizio 3.7 Esercizio 3.6 Determinare la propriet` a di stabilit` a BIBO del sistema in Fig. 3.16 e la risposta a regime al segnale di ingresso u(k) = 2. Esercizio 3.7 Determinare i valori di H tali che il sistema in Fig. 3.17 `e stabile BIBO e, per un valore a scelta di H 6= 0, la risposta indiciale. Esercizio 3.8 Data il sistema a tempo discreto con risposta impulsiva 



w(k) = (0.4)k + 2(−0.2)k δ−1 (k) determinare la risposta al segnale di ingresso u(k) = 5 cos(2k)δ−1 (k). Esercizio 3.9 Data il sistema a tempo discreto con risposta impulsiva 



w(k) = (0.4)k + 2(−0.2)k δ−1 (k) determinare la risposta al segnale di ingresso u(k) = 5 cos(2k)δ−1 (k).

CAPITOLO 4

Analisi dei sistemi nel dominio della frequenza

In questo capitolo introdurremo il concetto di frequenza e di risposta in frequenza (o armonica) di un sistema, che riveste un ruolo chiave nello studio dei sistemi lineari tempo invarianti per un duplice motivo. In prima istanza, perch´e l’analisi di questa caratteristica del sistema porta ad evidenziarne alcune propriet` a di notevole importanza in moltissime applicazioni in tutti i campi dell’ingegneria. In secondo luogo, lo studio del comportamento del sistema sollecitato da segnali di ingresso sinusoidali permette di risalire, grazie al principio di sovrapposizione degli effetti, al comportamento del sistema in risposta ad una vasta classe di segnali, basta che siano in qualche modo scomponibili in componenti sinusoidali. Vedremo, allora, quali classi di segnali possono essere visti come sovrapposizione di segnali sinusoidali tramite gli strumenti matematici della serie e della trasformata di Fourier. Infine, introdurremo la risposta armonica di un sistema e lo strumento dei diagrammi di Bode per il tracciamento del suo diagramma.

4.1

Serie di Fourier

Consideriamo una funzione f (t) di variabile reale a valori complessi, cio`e l’applicazione f : t ∈ R 7→ f (t) ∈ C 155

156

Capitolo 4. Analisi dei sistemi nel dominio della frequenza

e supponiamo che sia periodica di periodo T , cio`e f (t) = f (t + T ), ∀t ∈ R.1 Si definisce frequenza del segnale periodico il reciproco del periodo, cio`e f0 = 1/T , mentre la pulsazione `e definita come ω0 = 2π/T . Nelle ipotesi di f (t) limitata in modulo e integrabile nell’intervallo [0, T ], nei punti in cui f (t) `e derivabile vale l’uguaglianza +∞ X

f (t) =

Fn ejnω0 t ,

(4.1)

n=−∞

dove i coefficienti di Fourier sono dati da2 1 Fn = T

Z

T

0

f (t)e−jnω0t dt,

n∈Z

(4.2)

e sono numeri complessi, per cui sono definite le successioni dei moduli {|Fn |}, detta spettro di ampiezza del segnale, e delle fasi {arg(Fn )}, detta spettro di fase del segnale, i quali hanno un diagramma discreto per cui si dice che un segnale periodico ha lo spettro a righe. Un caso notevole `e quello in cui il segnale f (t) assume solo valori reali, allora i suoi coefficienti di Fourier sono tali che F−n = Fn∗ ,

n∈N

e quindi la serie di Fourier diventa della forma f (t) = F0 +

+∞ Xh

Fn ejnω0 t + Fn∗ e−jnω0 t

n=1

i

e applicando le formule di Eulero (vedi Appendice A) si pu` o dimostrare che pu` o essere riscritta nella cosiddetta forma trigonometrica f (t) = a0 +

+∞ X

[an cos(nω0 t) + bn sin(nω0 t)] = a0 +

n=1

+∞ X

n=1

2|Fn | cos(nω0 t + arg(Fn )) (4.3)

dove i coefficienti si calcolano come a0 = F0 = an

1 T

Z

T

f (t)dt

2 = 2Re(Fn ) = T

bn = −2Im(Fn ) = 1`

(4.4)

0

Z

T

f (t) cos(nω0 t)dt,

0

2 T

Z

0

n∈N

(4.5)

T

f (t) sin(nω0 t)dt,

n∈N

(4.6)

E chiaro che vale anche la relazione f (t) = f (t + nT ), ∀t ∈ R, ∀n ∈ Z. E possibile dimostrare che l’integrale pu` o essere esteso a un generico intervallo [a, a + T ] con a ∈ R. 2`

4.1. Serie di Fourier

157 f (t) 1

−T /2 −T /4 0

T /4 T /2

t

Figura 4.1: Segnale periodico a onda quadra 0.6

Fn

0.4 0.2 0 −0.2

0

2

4

6

8

10

n

Figura 4.2: Spettro del segnale periodico a onda quadra La forma trigonometrica mostra come un segnale periodico pu` o essere scomposto in una serie di segnali sinusoidali detti componenti armoniche del segnale, in quanto le pulsazioni di tali segnali sinusoidali sono tutte multiple della pulsazione del segnale di partenza. Se il segnale `e tale che solo un numero finito di armoniche hanno ampiezza non nulla, allora si dir` a a banda limitata e la sua larghezza di banda sar` a pari a (ns − ni )ω0 , dove ni ed ns sono il minimo e il massimo valore di n per cui risulta Fn 6= 0, rispettivamente. Il termine a0 `e detto valor medio o componente continua del segnale f (t) e indica la parte del segnale f (t) che non varia nel tempo. Al contrario le ampiezze delle armoniche superiori quantificano la rapidit` a di variazione del segnale. Qualitativamente parlando, se il segnale o le sue derivate presentano delle discontinuit` a3 , certamente il suo sviluppo in serie di Fourier avr` a un numero infinito di armoniche con ampiezza non nulla. Al contrario, quanto pi` u elevato `e il numero di sue derivate continue, tanto pi` u basse saranno le ampiezze delle sue armoniche. 3 Si noti che in corrispondenza di una discontinuit` a il segnale presenta una variazione finita in un intervallo di tempo nullo.

158

Capitolo 4. Analisi dei sistemi nel dominio della frequenza

5

f(t)

4 3 2 1

5

10

15

20

25

30

t

Figura 4.3: Segnale periodico dell’Esempio 4.2

Esempio 4.1 Sviluppiamo in serie di Fourier il segnale a onda quadra definito graficamente in Fig. 4.1. I coefficienti di Fourier sono calcolabili applicando la (4.2) 1 Fn = T

Z

T /2

−T /2

−jnω0 t

f (t)e

1 dt = T

Z

T /4

−jnω0 t

e

−T /4

dt =

(

1 2 1 sin(nπ/2) 2 nπ/2

n=0 n ∈ Z − {0}

Come si vede, i coefficienti sono tutti reali e inoltre per n pari sono tutti nulli, e infine, dalla Fig. 4.2 si pu` o osservare come decrescono in ampiezza al crescere di n. Le caratteristiche riscontrate nell’esempio sono propriet` a pi` u generali, infatti se f (t) `e una funzione pari (cio`e f (t) = f (−t)) allora si ha bn = 0, ∀n ∈ N e lo spettro `e reale, S mentre se f (t) `e una funzione dispari (cio`e f (t) = −f (−t)) allora an = 0, ∀n ∈ N {0} e lo spettro `e puramente immaginario. Infine, sotto alcune ipotesi di continuit` a su f (t), si pu` o dimostrare che la successione dei coefficienti di Fourier tende a 0 per n → +∞. Esempio 4.2 Dato il segnale periodico f (t) = 3 + sin(2π/3t) + 2 cos(4π/5t) somma di una costante pi` u due segnali sinusoidali, il suo periodo `e il minimo comune multiplo dei due periodi T1 = 3 s e T2 = 2.5 s, quindi T = 15 s (in Fig. 4.3 ne sono riportati due periodi), infatti la pulsazione fondamentale ω0 = 2π/15 `e tale che 2π/3 = 5ω0 e 4π/5 = 6ω0 . Calcoliamo i suoi coefficienti di Fourier F0 =

1 T

Z

0

T

f (t)dt = 3

4.2. Trasformata di Fourier

159

in quanto tutti i segnali sinusoidali hanno integrale nullo su un numero intero di periodi. Per n 6= 0 Fn =

1 T

Z

T

0

   −j0.5

f (t)e−jnω0 dt =

 

Infatti, negli integrali Z

0

T

1 0



3 + sin(5ω0 t) + 2 cos(6ω0 t)

n=5 n=6 altrimenti



cos(nω0 t) − j sin(nω0 t) dt

il 3 non d` a alcun contributo, cos`ı come tutti i termini con n 6= 5 e n 6= 6, in quanto integrali di funzioni sinusoidali calcolati su un numero intero di periodi. Per n = 5 l’unico termine che d` a contributo `e il segnale sinusoidale di periodo T1 moltiplicato per j sin(5ω0 t) j F5 = − T

Z

T

j sin (5ω0 t)dt = − 2T 2

0

Z

0

T



1 − cos(10ω0 t) dt = −j0.5 .

Analogamente, nel determinare F6 , l’unico termine che d` a contributo `e il segnale cosinusoidale di periodo T2 moltiplicato per cos(6ω0 t) 2 F6 = T

Z

0

T

Z

2 cos (6ω0 t)dt = 2T 2

0

T



1 + cos(12ω0 t) dt = 1 .

In conclusione, lo spettro del segnale ha un numero finito di righe, come del resto era prevedibile visto che `e costituito dalla sovrapposizione di un numero finito di sinusoidi.

4.2

Trasformata di Fourier

Come si `e visto nel paragrafo precedente, `e possibile vedere un segnale periodico come sovrapposizione di segnali armonici, allora sorge spontanea la domanda se ci`o possa essere esteso anche a segnali non periodici. La risposta `e fornita appunto dalla trasformata di Fourier , cio`e la funzione complessa di variabile reale definita come Z +∞

F (ω) =

f (t)e−jωt dt

(4.7)

−∞

che esiste se f (t) `e una funzione complessa di variabile reale integrabile4 . La variabile reale ω `e detta pulsazione, mentre la frequenza `e definita come f = ω/(2π). 4 Per la definizione rigorosa di trasformata di Fourier di una distribuzione si veda, ad esempio, [5].

160

Capitolo 4. Analisi dei sistemi nel dominio della frequenza

Cos`ı come per la trasformata di Laplace, anche per quella di Fourier `e stato introdotto un simbolo particolare per indicare l’operazione di trasformazione F[f (t)] = F (ω) , mentre con il simbolo F −1 [F (ω)] = f (t) si indica l’operazione di antitrasformazione definita come 1 f (t) = 2π

Z

+∞

F (ω)ejωt dω

(4.8)

−∞

che vale almeno nei punti in cui f (t) `e derivabile. Analogamente alla serie di Fourier, si ha che se f (t) `e reale allora F (−ω) = F ∗ (ω) per cui risulta f (t) =

Z

1 2π

0

+∞ h

i

F (ω)ejωt + F ∗ (ω)e−jωt dω ,

che `e possibile scrivere anche nella forma trigonometrica f (t) =

1 π

Z

0

+∞





|F (ω)| cos ωt + arg(F (ω)) dω .

Dunque, anche un segnale non periodico pu` o essere visto come sovrapposizione (continua) di armoniche opportunamente pesate tramite lo spettro di ampiezza |F (ω)| e sfasate tramite lo spettro di fase arg(F (ω)). Anche in tal caso si pu` o definire la larghezza di banda del segnale come la differenza ωs − ωi tra l’estremo superiore e l’estremo inferiore dell’intervallo per cui F (ω) 6= 0; se ωs < +∞ il segnale si dice a banda limitata 5 . La trasformata di Fourier gode di propriet` a molto simili a quelle della trasformata di Laplace, vediamone alcune6 • Linearit` a • Dualit` a 5 6

F[k1 f1 (t) + k2 f2 (t)] = k1 F1 (ω) + k2 F2 (ω) F (ω) = F[f (t)] ⇒ f (−ω) =

1 F[F (t)] 2π

Si pu` o dimostrare che in tal caso il segnale deve necessariamente avere durata illimitata. Per le dimostrazioni si veda, ad esempio, [5].

4.2. Trasformata di Fourier

161

• Coniugazione

F[f ∗ (t)] = F ∗ (−ω)

• Traslazione in t

F[f (t − t0 )] = F (ω)e−jωt0

• Traslazione in ω o modulazione F[ejω0 t f (t)] = F (ω − ω0 ) • Cambiamento di scala F[f (t/a)] = |a|F (aω) • Derivata in t





d F f (t) = jωF (ω) dt

• Derivata in ω

F[−jtf (t)] =

d F (ω) dω

• Simmetria f (t) reale e pari f (t) reale e dispari • Convoluzione F[f (t) ∗ g(t)] = F • Prodotto

⇔ ⇔ Z

F (ω) reale e pari F (ω) immaginaria pura e dispari



+∞

−∞

f (τ )g(t − τ )dτ = F (ω)G(ω)

F[f (t)g(t)] =

1 F (ω) ∗ G(ω) 2π

• Uguaglianza di Parseval Se f (t) `e a quadrato integrabile Z

+∞

−∞

|f (t)|2 dt =

1 2π

Z

+∞

−∞

|F (ω)|2 dω

L’ultima propriet` a `e suscettibile di un’interessante interpretazione fisica: l’energia associata al segnale nel dominio del tempo deve essere pari a quella nel dominio della frequenza. Ci` o sar` a di particolare interesse quando il segnale in questione `e la risposta impulsiva di un sistema LTI. Servendoci di tali propriet` a e della definizione possiamo ora calcolare qualche trasformata notevole.

162

Capitolo 4. Analisi dei sistemi nel dominio della frequenza

Esempio 4.3 Iniziamo dalla funzione finestra di durata T definita dalla (2.3) F[wT (t)] =

Z

+∞

−∞

−jωt

wT (t)e

dt =

Z

+T /2

−jωt

e

−T /2



1 dt = − e−jωt jω

+T /2

=T

−T /2

sin(ωT /2) ωT /2

il cui spettro, come si vede, `e reale e pari ed inoltre `e a banda illimitata, mentre il segnale ha durata limitata. Notiamo che, in base alla propriet` a di dualit` a `e possibile subito affermare che lo spettro di un segnale di tipo sinc()7 `e a banda limitata ed ha la forma di una finestra.

Esempio 4.4 Per il calcolo dello spettro di un impulso di Dirac ci serviremo della propriet` a di campionamento (2.4) F[δ(t)] =

Z

+∞

δ(t)e−jωt dt = e−jω0 = 1 .

−∞

Ancora una volta, per dualit` a, si ha che la trasformata della costante unitaria `e l’impulso di area 2π centrato nell’origine, di conseguenza, applicando la propriet` a di modulazione si ha F[ejω0 t ] = 2πδ(ω − ω0 ) . Grazie all’ultimo risultato `e possibile calcolare immediatamente la trasformata di segnali sinusoidali Esempio 4.5 Iniziamo con il coseno F[cos(ω0 t)] = F[(ejω0 t + e−jω0 t )/2] = per la linearit` a 



= (1/2) F[ejω0 t ] + F[e−jω0 t ] = per il risultato precedente 



= π δ(ω − ω0 ) + δ(ω + ω0 ) e analogamente per la funzione seno si trova 



F[sin(ω0 t)] = jπ δ(ω + ω0 ) − δ(ω − ω0 )

per cui gli spettri di segnali puramente sinusoidali sono “a righe” e, visto che un segnale periodico `e sviluppabile in serie di Fourier e quindi `e sovrapposizione di segnali sinusoidali, la sua trasformata di Fourier sar` a, per linearit` a, un treno infinito di impulsi e quindi ancora a righe, ma stavolta le righe sono degli impulsi.

4.2. Trasformata di Fourier

163

1

0.25 0.2 |F(ω)|

f(t)

0.5 0 −0.5 −1 −1

0.15 0.1 0.05

−0.5

0 t

0.5

1

0 0

50

100

150

200

250

ω

Figura 4.4: Segnale in banda base (nero) e in banda traslata (grigio) nel dominio del tempo (sinistra) e della frequenza (destra) relativi all’Esempio 4.6 Vediamo un’importante conseguenza della propriet` a di modulazione. Esempio 4.6 Determiniamo la trasformata di Fourier del segnale ottenuto moltiplicando una funzione sinc() per un coseno 

F[sinc(αt) cos(ω0 t)] = 1/2 F[sinc(αt)]|ω−ω0 + F[sinc(αt)]|ω+ω0



= 1/(2α)w2πα (ω − ω0 ) + 1/(2α)w2πα (ω + ω0 ) .

In generale, il prodotto nel dominio del tempo di un segnale per una sinusoide, in frequenza consiste in una traslazione dello spettro del segnale di partenza di una quantit` a pari alla pulsazione del segnale sinusoidale (detto “portante”). Per questo il segnale originario si dice anche “in banda base”, mentre la sua versione modulata si dice “in banda traslata”. In Fig. 4.4 sono riportati tali segnali nel dominio nel tempo e, per le sole pulsazioni positive, i relativi spettri di ampiezza, nel caso α = 5 e ω0 = 150. E` questo il principio su cui si basano le trasmissioni radio, e tutte le conseguenze di questa propriet` a saranno approfondite nei corsi di Telecomunicazioni. Vista la similitudine formale delle definizioni delle trasformate di Fourier e Laplace, ci si potrebbe chiedere in che relazione sono le due entit` a. Confrontando la (2.1) con la (4.7) si vede subito che vale la relazione, avendo posto come al solito s = α + jω L[f (t)] = F[f (t)e−αt ] , (4.9) che ci fa comprendere come possano esistere funzioni f (t) che tendono anche all’infinito per t → +∞ (ma non “troppo rapidamente”, o meglio “pi` u lentamente di un esponenziale”) e che sono trasformabili secondo Laplace ma non secondo 7

La funzione reale di variabile reale sin(πx)/πx `e detta anche sinc(x).

164

Capitolo 4. Analisi dei sistemi nel dominio della frequenza

Fourier, infatti nel trasformare secondo Laplace nell’integrale tra −∞ e +∞ la f (t) `e moltiplicata per e−αt che pu` o rendere il prodotto integrabile se α > 0, mentre nel trasformare secondo Fourier ci` o non avviene. Le due trasformate invece esistono entrambe per le funzioni f (t) nulle per t < 0 e se la trasformata di Laplace ha ascissa di convergenza α0 < 0 in modo che l’asse immaginario appartenga al semipiano di convergenza, e in tal caso vale la relazione fondamentale F[f (t)] = L[f (t)]s=jω .

4.3

(4.10)

Risposta esponenziale

In questo paragrafo calcoleremo esplicitamente la risposta di un sistema LTI ad un segnale esponenziale (in generale complesso) perch´e ci sar` a utile ai fini del calcolo della risposta armonica del sistema stesso. Consideriamo un generico sistema LTI asintoticamente stabile8 con rappresentazione i–s–u x(t) ˙ = Ax(t) + Bu(t) y(t) = Cx(t) + Du(t) e applichiamo il segnale di ingresso u(t) = U es0 t a partire da −∞, con s0 ∈ C. Nel Capitolo 2 abbiamo trovato che la risposta nell’uscita ad un ingresso applicato da −∞ si calcola come l’integrale di convoluzione y(t) =

Z

+∞

−∞

w(τ )U es0 (t−τ ) dτ =

Z |

+∞

−∞

w(τ )e−s0 τ dτ U es0 t = W (s0 )u(t) , {z

L[w(t)]

(4.11)

}

cio`e l’uscita `e pari allo stesso segnale esponenziale (in generale complesso) posto in ingresso, moltiplicato per una costante (complessa) pari alla funzione di trasferimento calcolata in s0 . Questo fatto significa che le funzioni esponenziali complesse sono delle autofunzioni per sistemi LTI, nel senso che come una matrice non ruota i suoi autovettori, cos`ı un sistema lineare non modifica segnali di ingresso esponenziali. Naturalmente, l’uscita calcolata nella (4.11) `e un segnale ben definito solo se la W (s) `e ben definita in s0 , cio`e s0 non deve essere un polo del sistema e, ricordando che i poli di W (s) sono gli autovalori della matrice dinamica A, s0 non deve essere un autovalore della matrice A. Inoltre, va osservato che tale equazione `e valida solo se il segnale di ingresso `e applicato da −∞. Se cos`ı non fosse, la (4.11) sarebbe valida solo “asintoticamente”, nel senso che la differenza fra l’uscita effettiva e quella calcolata con la (4.11) tenderebbe a zero per t → +∞. In altre parole, la formula (4.11) va intesa come risposta a regime 8 I risultati possono essere estesi al caso di sistemi instabili con un’opportuna scelta delle condizioni iniziali (vedi, ad esempio,[2]).

4.3. Risposta esponenziale

165

permanente cos`ı come definita nel Paragrafo 2.5 tramite la (2.55). Per chiarire le idee facciamo un esempio.

Esempio 4.7 Sia dato il sistema x˙ = −3x + u, y = x

x(0) = x0

con u(t) = et δ−1 (t). La funzione di trasferimento del sistema `e banalmente W (s) = 1 s+3 , che ha un polo in −3 diverso dall’esponente del segnale di ingresso e inoltre, essendo il polo negativo, il sistema `e asintoticamente stabile. Verifichiamo che la differenza fra l’uscita effettiva e l’uscita calcolata con la (4.11) tende asintoticamente a zero. Applicando la formula (2.45), l’uscita effettiva vale y(t) =

Z

0

t

e−3(t−τ ) eτ dτ + x0 e−3t = e−3t

Z

t 0



e4τ dτ + x0 e−3t = e−3t 

1 1 1 −3t = e−3t [e4t − 1] + x0 e−3t = et + x0 − e , 4 4 4



1 4τ e 4

t

+ x0 e−3t

0

t≥0.

Mentre dalla (4.11) risulta

1 1 y(t) = W (s)|s=1 e = et = et s + 3 s=1 4 t

e quindi la differenza fra i due risultati vale (x0 − 1/4)e−3t , che tende a zero per t → +∞. E` importante sottolineare che se pure avessimo scelto semplicemente x(0) = 0, la (4.11) non sarebbe stata verificata, perch´e sarebbe rimasto sempre un termine del tipo e−3t . Tuttavia si intuisce che una scelta opportuna9 della condizione iniziale rende la (4.11) valida ∀t ∈ R. Dall’equazione (4.11) si pu` o anche osservare che se s0 coincide con uno zero della f.d.t. (cio`e W (s0 ) = 0) allora l’uscita risulta identicamente nulla (sempre asintoticamente), effetto che abbiamo gi` a indicato nel Paragrafo 2.2.5 come propriet` a bloccante degli zeri. Concludiamo il paragrafo riportando il risultato analogo alla (4.11) per la risposta esponenziale nello stato ad un ingresso u(t) = U es0 t x(t) = Φ(s0 )BU es0 t = Φ(s0 )Bu(t) = (s0 I − A)−1 Bu(t) . 9

Si verifichi come tale scelta sia, in generale, x0 = (s0 I − A)−1 BU .

(4.12)

166

Capitolo 4. Analisi dei sistemi nel dominio della frequenza

4.4

Risposta sinusoidale

Come nel paragrafo precedente abbiamo calcolato la risposta ad un segnale esponenziale, ora calcoleremo la risposta di un sistema LTI asintoticamente stabile con f.d.t. W (s) ad un segnale sinusoidale a pulsazione ω0 e di ampiezza AU , cio`e u(t) = AU cos(ω0 t) .

(4.13)

Si noti che il segnale `e applicato da −∞, quindi faremo l’ipotesi di asintotica stabilit` a del sistema. Se il segnale non dovesse essere applicato da −∞ e se le condizioni iniziali sono generiche, il risultato che troveremo va inteso come risposta a regime permanente, nel senso gi` a spiegato nel Paragrafo 2.5, cio`e come quella funzione del tempo tale che la sua differenza con la risposta complessiva converge asintoticamente a zero. Dimostreremo che tale risposta a regime vale 



y(t) = |W (jω0 )|AU cos ω0 t + arg(W (jω0 ))

(4.14)

A tale scopo immaginiamo di applicare il segnale (4.13) a partire da t = 0 (ad esempio con condizioni iniziali nulle, ma non `e strettamente necessario) e determinare la risposta a regime permanente secondo la definizione data nella (2.55). L’uscita nel dominio di Laplace vale Y (s) = W (s)U (s) = W (s)AU

n X r r∗ s rk = + + , s2 + ω02 k=1 s − pk s − jω0 s + jω0

dove rk sono i residui dei modi propri del sistema corrispondenti ai poli pk ed r `e il residuo del modo proprio dell’ingresso corrispondente alle radici ±jω0 del denominatore di Y (s), che vale r = [(s − jω0 )Y (s)]s=jω0



s = W (s)AU s + jω0



= s=jω0

W (jω0 )AU 2

Antitrasformando secondo la (2.12), si ottiene (nell’ipotesi di poli semplici, ma non `e strettamente necessario) y(t) =

n X

k=1

rk epk t + |W (jω0 )|AU cos(ω0 t + arg(W (jω0 ))

da cui si vede che la differenza tra questa funzione e la y(t) espressa dalla (4.14) P vale nk=1 rk epk t , che tende a zero per t → +∞, grazie all’ipotesi di asintotica stabilit` a del sistema. In conclusione, la (4.14) rappresenta effettivamente la risposta a regime permanente di un sistema LTI ad un segnale sinusoidale, e si pu` o affermare che questa `e ancora un segnale sinusoidale del tipo AY sin(ω0 t + φY ) e tale che AY = |W (jω0 )|, AU

φY = arg(W (jω0 )) .

4.4. Risposta sinusoidale

167

L’estensione, invece, della (4.12) al caso di segnale di ingresso sinusoidale `e h

x(t) = Re Φ(jω0 )BAU ejω0 t

i

(4.15)

dove la funzione Re(·) si intende applicata elemento per elemento al vettore complesso tra parentesi quadre. Naturalmente, il risultato che un sistema LTI non “distorce” i segnali sinusoidali `e basato fortemente sul fatto che il sistema in esame `e lineare; se cos`ı non fosse la risposta ad un segnale sinusoidale potrebbe non essere sinusoidale. Questa particolarit` a `e una propriet` a forte dei sistemi lineari, per cui se da misure sperimentali effettuate su di un sistema reale emerge che il sistema risponde a sollecitazioni sinusoidali con segnali non sinusoidali, certamente si pu` o escludere che il sistema in esame possa essere descritto da un modello puramente lineare. Nel Paragrafo 4.1 abbiamo visto come un segnale periodico pu` o essere espresso come serie di funzioni sinusoidali, dunque, per il principio di sovrapposizione degli effetti, la risposta di un sistema a un segnale periodico si ottiene come sovrapposizione delle risposte alle singole armoniche del segnale di ingresso. Allora la risposta di un sistema con f.d.t. W (s) ad un segnale periodico u(t) di pulsazione ω0 la cui serie di Fourier in forma trigonometrica `e10 u(t) =

+∞ X

An cos(nω0 t + ϕn )

n=1

si calcola applicando la (4.14) y(t) =

+∞ X

n=1

An |W (jnω0 )| cos(nω0 t + ϕn + arg(W (jnω0 ))) .

Concludiamo il paragrafo con qualche esempio. Il primo `e mirato a far vedere come, se pure nella realt` a non `e possibile applicare segnali di ingresso da −∞, calcolare la risposta del sistema a regime permanente pu` o essere comunque un’ottima approssimazione di situazioni in cui i segnali sinusoidali sono stati applicati da un tempo abbastanza grande rispetto alle costanti di tempo tipiche del sistema.

Esempio 4.8 Dato il sistema LTI con f.d.t. W (s) =

s+1 , s2 + s + 10

10 Si considera il caso di un segnale a media nulla, tanto la risposta ad una costante era gi` a stata calcolata nel Paragrafo 2.5.

168

Capitolo 4. Analisi dei sistemi nel dominio della frequenza

10

y(t), u(t)

5 0 −5 −10 0

5

10

15

t

Figura 4.5: Ingresso (grigio) e uscita (nero) del sistema dell’Esempio 4.8 determiniamone la risposta al segnale u(t) = 10 cos(2t + π/3). Dato che il sistema `e asintoticamente stabile e il segnale sinusoidale `e applicato da −∞ possiamo applicare la formula (4.14), che richiede di valutare la f.d.t. per s = j2 √ 1 1 2 jπ/4 1 + j2 W (j2) = = +j = e 6 + j2 4 4 4 e quindi l’uscita risulta pari a √   5 2 7π y(t) = cos 2t + 2 12 cio`e un segnale sinusoidale di ampiezza pi` u piccola di quella del segnale di ingresso e sfasato rispetto a questo di π/4 rad in anticipo. Se il segnale di ingresso fosse stato applicato solo a partire da t = 0 (cio`e pari a u(t)δ−1 (t)), la risposta del sistema sarebbe stata uguale a quella sopra calcolata solo asintoticamente, cio`e una volta o apprezzare in Fig. 4.5, esaurito il transitorio iniziale di circa11 8 s, cos`ı come si pu` dove sono riportati i grafici dei segnali di uscita e di ingresso relativi a tale caso. Nel secondo esempio verificheremo che nel caso non lineare la risposta a segnali sinusoidali pu` o essere non sinusoidale, per cui si dice che i sistemi non lineari hanno un effetto “distorcente” sui segnali di ingresso, nel senso che la forma del segnale sinusoidale di ingresso viene cambiata anche notevolmente in uscita. Ad esempio, speciali circuiti non lineari, detti appunto “distorsori”, venivano utilizzati negli anni ‘70 dai musicisti rock per generare particolari effetti acustici con la chitarra elettrica. 11 Si noti come tale intervallo `e circa pari al tempo di assestamento del sistema, una cui stima `e proprio Ta2 = 4/ζωn = 8 s.

4.4. Risposta sinusoidale

169

15

y(t), u(t)

10

5

0 0

10

20

30

t

Figura 4.6: Ingresso (grigio) e uscita (nero) del sistema dell’Esempio 4.9

Esempio 4.9 Dato il sistema non lineare del primo ordine y˙ + 2.5yu = 0,

y(0) = 1 ,

determiniamone la risposta a regime permanente (se esiste) all’ingresso u(t) = cos(t). Integrando l’equazione differenziale per separazione di variabili Z

0

t

dy = y

Z

0

t

−2.5cosτ dτ ⇒ log y(t) − log y(0) = −2.5 sin t

si ottiene y(t) = e−2.5 sin t il cui andamento `e riportato in Fig. 4.6 assieme a quello del segnale di ingresso, dove si vede chiaramente che il segnale di uscita, nonostante sia periodico, `e non sinusoidale, e quindi ha uno spettro a infinite righe. Dall’ultimo esempio si deduce anche che, in generale, i sistemi non lineari sono in grado di generare armoniche non presenti nel segnale di ingresso, al contrario dei sistemi LTI, i cui segnali di uscita possono contenere solo armoniche gi` a presenti nel segnale di ingresso. Questo concetto sar` a chiarito e approfondito nel prossimo paragrafo.

170

4.5

Capitolo 4. Analisi dei sistemi nel dominio della frequenza

Risposta armonica di un sistema LTI

Si definisce risposta armonica o risposta in frequenza del sistema con f.d.t. W (s) = C(sI − A)−1 B + D la funzione complessa di variabile reale12 W (jω) = W (s)|s=jω = C(jωI − A)−1 B + D

(4.16)

definita per valori non negativi di ω e tali che jω non sia un polo di W (s); ci` o `e certamente verificato per qualunque ω se il sistema `e asintoticamente stabile, infatti, in tal caso, la W (s) ha tutti i poli a parte reale negativa. Si vede subito che la conoscenza di W (jω) per ω > 0 consente di conoscere anche W (−jω), infatti si ha W (−jω) = W ∗ (jω) . In base al risultato espresso dalla (4.14) si pu` o dare subito un’interpretazione della risposta armonica. Per ciascun valore della pulsazione in cui la (4.16) sia ben definita, il modulo del numero complesso W (jω) rappresenta il rapporto tra l’ampiezza della risposta a regime permanente ad un segnale sinusoidale e l’ampiezza del segnale di ingresso stesso; la fase del numero complesso W (jω), invece, rappresenta lo sfasamento che c’`e tra ingresso e uscita. Tuttavia, non `e questa l’unica interpretazione che si pu` o dare della risposta armonica. Infatti, calcoliamo la risposta di un sistema ad un generico ingresso trasformabile secondo Fourier, cio`e scomponibile nella sovrapposizione continua di esponenziali complessi 1 u(t) = 2π

Z

+∞

U (ω)ejωt dω

−∞

allora, per il principio di sovrapposizione degli effetti e applicando la (4.11), abbiamo Z 1 +∞ y(t) = W (jω)U (ω)ejωt dω 2π −∞ ma, d’altra parte, se anche y(t) `e trasformabile secondo Fourier si ha y(t) =

1 2π

Z

+∞

Y (ω)ejωt dω

−∞

che confrontata con la precedente fornisce il risultato notevole Y (ω) = W (jω)U (ω) ,

(4.17)

che ci dice come la funzione di risposta armonica `e il rapporto tra la trasformata di Fourier dell’uscita e quella dell’ingresso, dove questa `e non nulla. 12 Per poter usare lo stesso simbolo per la f.d.t. e per la funzione di risposta armonica, abbiamo indicato la variabile indipendente di quest’ultima con jω, anche se `e semplicemente ω.

4.5. Risposta armonica di un sistema LTI

171

L’equazione precedente ci consente di dare ancora un’altra interpretazione della risposta in frequenza di un sistema. Infatti, ricordando la propriet` a di convoluzione della trasformata di Fourier e che la risposta nel dominio del tempo di un sistema LTI asintoticamente stabile `e data dalla convoluzione bilatera della risposta impulsiva con l’ingresso (se questo `e applicato da −∞), allora la W (jω) non pu` o che essere la trasformata di Fourier della risposta impulsiva. Da ci` o si deduce che se si volesse misurare la risposta in frequenza di un sistema per qualunque frequenza occorrerebbe misurarne la risposta impulsiva e poi trasformarla secondo Fourier, perch´e solo in questo modo lo spettro del segnale di ingresso U (ω) non si annullerebbe in alcun punto dell’asse delle frequenze dando luogo ad un’uscita misurabile. Purtroppo nella pratica un impulso non `e realizzabile, tuttavia, per quanto detto, i segnali pi` u opportuni per la misura della risposta in frequenza di un sistema sono quelli il cui spettro si avvicina di pi` u a quello piatto dell’impulso, ad esempio onde quadre con duty cycle13 molto basso. Dalla relazione (4.17) si intuisce anche che un sistema lineare pu` o presentare in uscita solo armoniche gi` a presenti nel segnale di ingresso, infatti se U (¯ ω) = 0 anche Y (¯ ω ) = 0 indipendentemente da W (j ω ¯ ). Dunque, il sistema non fa altro che modellare lo spettro del segnale di ingresso secondo la forma della sua risposta armonica, in ampiezza e fase. Cos`ı, ad esempio per le frequenze in cui |W | > 1 esso sar` a amplificato . Queste modificazioni del segnale di ingresso introdotte dall’azione del sistema si chiamano distorsioni e l’azione svolta dal sistema si dice filtrante, ma non vanno confuse con le distorsioni vere e proprie prodotte da sistemi non lineari. Per poter quantificare tale azione filtrante dei sistemi dinamici, `e utile definire dei parametri caratteristici della risposta in frequenza, cos`ı come i parametri della risposta indiciale sono stati gi` a introdotti come parametri caratteristici del sistema nel dominio del tempo. Con riferimento alla Fig. 4.7, si definisce • Modulo di risonanza Mr il valore massimo di |W (jω)| (supposto unico) • Modulo di antirisonanza Ma il valore minimo di |W (jω)| (supposto unico) • Pulsazione di risonanza ωr il valore di ω per cui |W (jωr )| = Mr • Pulsazione di antirisonanza ωa il valore di ω per cui |W (jωa )| = Ma • Banda passante a −k dB contenente ωr

16

n

Bk l’ampiezza dell’intervallo (espressa in Hz)

[ωi , ωs ] = ω ≥ 0 : |W (jω)|dB ≥ MrdB − k 13

o

Si chiama duty cycle di un’onda quadra il rapporto tra l’intervallo di tempo in cui il segnale `e non nullo e il periodo. 14 Cio`e di ampiezza pi` u piccola di quella del segnale di ingresso. 15 Cio`e di ampiezza pi` u grande di quella del segnale di ingresso. 16 Dato un numero reale positivo α, si pone αdB = 20 log10 α.

172

Capitolo 4. Analisi dei sistemi nel dominio della frequenza

|W (jω)|dB Mr Mr − k

Ma + k Ma 0

ωi

ωi′

ωs

ωr

ωa

ωs′

ω

Figura 4.7: Parametri caratteristici della risposta in frequenza • Banda arrestante a k dB Bk′ l’ampiezza dell’intervallo (espressa in Hz) contenente ωa n

[ωi′ , ωs′ ] = ω ≥ 0 : |W (jω)|dB ≤ MadB + k

o

• Pulsazione di taglio inferiore ωi e ωi′ • Pulsazione di taglio superiore ωs e ωs′ • Pulsazione di centro banda ωc =

ωi +ωs 2

e ωc′ =

ωi′ +ωs′ 2

In base ai valori delle pulsazioni di taglio `e possibile eseguire la seguente classificazione dei sistemi • Passa-tutto se ωi = 0 e ωs = +∞ • Arresta-tutto se ωi′ = 0 e ωs′ = +∞ • Passa-basso se ωi = 0 e ωs < +∞ • Arresta-alto se ωi′ > 0 e ωs = +∞ • Passa-alto se ωi > 0 e ωs = +∞ • Arresta-basso se ωi′ = 0 e ωs < +∞ • Passa-banda se ωi > 0 e ωs < +∞

4.5. Risposta armonica di un sistema LTI

173

|W (jω)|dB

|W (0)|dB |W (0)|dB − k

0

2πBk

ω

Figura 4.8: Risposta in frequenza di un sistema passa-basso • Arresta-banda se ωi′ > 0 e ωs′ < +∞ Anche per il diagramma delle fasi `e possibile definire dei parametri caratteristici, che possono essere trovati, ad esempio, in [1]. In particolare, per i sistemi passa-basso, si usa definire la banda passante a −k dB rispetto al valore del modulo a frequenza zero17 , cio`e Bk si definisce come il minimo valore della frequenza tale che |W (jωk )|dB = |W (j0)|dB − k ,

con ωk = 2πBk

Come si vede anche in Fig. 4.8, `e chiaro che se Mr = |W (j0)| allora tale definizione coincide con quella gi` a data nel caso generico. Il valore pi` u spesso adoperato nella pratica per −k `e pari a −3 dB, che equivalgono a un rapporto fra ampiez√ za dell’uscita e ampiezza dell’ingresso di circa 2/2, cio`e, a quella frequenza, l’ampiezza del segnale di uscita `e pari circa al 70% dell’ampiezza del segnale di ingresso. Chiariamo meglio questo concetto. Abbiamo detto che il modulo della funzione di riposta armonica rappresenta il rapporto tra l’ampiezza AY del segnale di uscita e quella AU del segnale di ingresso, dunque se alla generica pulsazione ω0 esso vale x dB, allora vale la relazione 



x AY = x ⇒ AY = 10 20 AU AU dB √ e, in particolare, per x = −3 si ha proprio AY ≃ 0.707AU ≃ 2/2AU . Per fissare i concetti finora esposti pu` o essere utile presentare un esempio di risposta in frequenza di un filtro realizzato con un circuito elettrico. 17

AY AU

= |W (jω0 )|dB = x ⇒ 20 log 10

Si fa notare come tale valore sia pari al valore assoluto del guadagno statico del sistema.

174

Capitolo 4. Analisi dei sistemi nel dominio della frequenza

−20

−30

−40 arg(W)

−20

[deg]

−10 [dB]

0

|W|

0

−60

−40

−80

−50

2

4 6 ω [rad/s]

8

10

−100

2

5

x 10

4 6 ω [rad/s]

8

10 5

x 10

0

−10

−20

[deg]

0

−20

−40 arg(W)

|W| [dB]

Figura 4.9: Risposta in frequenza del sistema del I ordine (scala lineare)

−30 −40 −50

−60 −80

0

10

10

5

−100

0

5

10

log10 ω [rad/s]

10 log10 ω [rad/s]

Figura 4.10: Risposta in frequenza del sistema del I ordine (scala logaritmica)

Esempio 4.10 Si consideri il circuito RC di Fig. 2.25, la cui f.d.t. del primo ordine, gi` a ricavata nell’Esempio 2.30, `e W (s) =

1 =, con R = 100 Ω e C = 1 µF 1 + sRC

con una costante di tempo τ = RC = 10−4 s. Essendo il sistema asintoticamente stabile, la sua risposta armonica si ottiene dalla (4.16) W (jω) =

1 , 1 + jωτ

i cui diagrammi dei moduli in dB e delle fasi in gradi sono riportati in Fig. 4.9 in scala lineare, cio`e in funzione di ω, mentre in Fig. 4.10 sono riportati in scala logaritmica, cio`e in funzione di log10 ω. Il vantaggio della scala logaritmica `e evidente in quanto si riesce ad apprezzare meglio l’andamento delle grandezze su un intervallo

4.5. Risposta armonica di un sistema LTI

175

0

|W| [dB]

−20 −40 −60 −80 0 10

1

10 log ω

2

10

10

Figura 4.11: Risposta in frequenza del sistema dell’Esempio 4.11 con β = 1 Ns/m di pulsazioni molto elevato (da 0.1 rad/s a 106 rad/s). Dalle figure si vede che il massimo del modulo si raggiunge per ω = 0 e vale 1 (0 dB), mentre la banda a −3 dB (B3 = ωs /2π) si ottiene risolvendo l’equazione18 √ √ 2 1 = 2 ⇔ 1 + ω 2 τ 2 = 2 ⇔ ωs = 1 ⇔ B3 = 1 |W (jωs )| = ⇔ s 2 1 + jωs τ 2 τ 2πτ

Inoltre, nel diagramma in scala logaritmica si nota come il modulo rimane praticamente costante fino alla pulsazione di taglio superiore (la diminuzione, per definizione di ωs `e inferiore a 3 dB), a partire dalla quale inizia a diminuire costantemente di circa 20 dB ogni decade, cio`e un intervallo in cui la pulsazione varia di un fattore 10. Vediamo un esempio del II ordine.

Esempio 4.11 Dato il sistema meccanico massa-molla-smorzatore dell’Esempio 2.16, la sua funzione di risposta armonica vale 1/M 1 = 2 , k + βjω − M ω 2 ωn − ω 2 + j2ζωn ω √ p dove ωn = k/M e ζ = β/(2 kM ). In presenza di attrito (β = 1 Ns/m), il diagramma del modulo della funzione di risposta armonica `e riportato in Fig. 4.11. Questo pu` o essere cos`ı interpretato: se applichiamo al carrello una forza costante (a frequenza nulla) di 1 N il carrello si sposta di 0.01 m (|W (j0)| = 0.01 = −40 dB). W (jω) =

18 La pulsazione di taglio superiore in questo caso `e detta anche pulsazione a −3 dB, pi` u spesso indicata col simbolo ω3 .

176

Capitolo 4. Analisi dei sistemi nel dominio della frequenza

150

|W| [dB]

100 50 0 −50 −100 0 10

1

2

10 log ω

10

10

Figura 4.12: Risposta in frequenza del sistema dell’Esempio 4.11 con β = 0 Ns/m Se, invece, applichiamo una forza sinusoidale di ampiezza 1 N e pulsazione vicina a 10 rad/s, il carrello si sposta di 0.1 m (o, equivalentemente, per spostare il carrello di 0.01 m bastano 0.1 N). Al crescere della pulsazione della forza sinusoidale applicata, gli spostamenti sono sempre pi` u bassi. Dunque, il sistema, nell’intorno della pulsazione naturale tende ad avere un comportamento particolare, nel senso che risulta particolarmente “reattivo” ai segnali di ingresso. Addirittura, in assenza di attrito (β = 0), il diagramma del modulo della funzione di risposta armonica, riportato in Fig. 4.12, presenta un asintoto verticale in corrispondenza della pulsazione naturale, ci` o vuol dire che se applicassimo una forza a quella pulsazione, non importa quanto piccola, l’ampiezza degli spostamenti del carrello sarebbe infinita. Tale fenomeno, detto “risonanza”, si verifica in moltissimi sistemi reali, di natura meccanica, elettrica, ecc., e, in alcuni casi, pu` o essere utilmente sfruttato (ad esempio, nei forni a microonde, negli oscillatori, negli strumenti medici per la diagnosi), mentre in molti altri va tenuto in conto nella fase di progettazione del sistema per evitare che possa provocare danni o malfunzionamenti (ad esempio, nei circuiti elettronici, nelle strutture meccaniche e aeronautiche e in quelle degli edifici). Calcoliamo la banda passante a −3 dB19 √ √ 2 1/M 2 1 |W (jω3 )| = |W (j0)| ⇒ 2 = 2 2 2 M ωn2 ωn − ω3 + j2ζωn ω3 da cui, elevando al quadrato ambo i membri20 (ωn2 19 20



ω32 )2

+

4ζ 2 ωn2 ω32

=

2ωn4

r

⇒ ω3 = ωn 1 − 2ζ 2 +

Si ricordi√che ω3 = 2πB3 ⇒ B3 = ω3 /(2π). Per ζ = 2/2 risulta ω3 = ωn .

q

2 − 4ζ 2 + 4ζ 4 .

4.5. Risposta armonica di un sistema LTI

177 w(t)

|W (jω)|

1 Ts

1

0

−2πB Figura 4.13: impulsiva.

ω

2πB

0

Ts

t

Risposta in frequenza di filtro passa-basso ideale e risposta

Calcoliamo la banda passante a −6 dB. Occorre determinare la pulsazione a −6 dB cio`e tale che 21 |W (jω6 )| = |W (j0)|/2

e con passaggi analoghi ai precedenti si trova22 r

q

ω6 = ωn 1 − 2ζ 2 + 2 1 − ζ 2 + ζ 4 . Un’interessante interpretazione del significato fisico della banda passante pu` o essere ricavata basandosi sull’uguaglianza di Parseval, riscritta per la risposta impulsiva di un sistema passa basso ideale23 di banda B (vedi Fig. 4.13, linea continua) Z +∞ Z 1 +∞ 2 |w(t)| dt = |W (jω)|2 dω 2π −∞ −∞ da cui, tenendo conto della causalit` a del sistema e considerando un valore unitario per la risposta armonica del filtro in banda, si ricava Z

0

+∞

1 |w(t)| dt = π 2

Z

0

+∞

|W (jω)|2 dω =

2πB = 2B π

Il primo membro pu` o essere approssimato considerando l’andamento della risposta impulsiva anch’esso di tipo rettangolare di durata pari al tempo di salita Ts e altezza 1/Ts (in modo che l’area sottesa sia pari a |W (0)| = 1) per cui risulta la seguente uguaglianza BTs = 0.5 21

Si osservi che raddoppiare i dB equivale ad elevare al quadrato i valori naturali. Per ζ = 1 risulta ω6 = ωn . 23 Si dice “passa-basso ideale” un filtro con risposta in frequenza costante nell’intervallo [−B, B] e nulla al di fuori. 22

178

Capitolo 4. Analisi dei sistemi nel dominio della frequenza

cio`e, banda e tempo di salita sono inversamente proporzionali; in altre parole, pi` u la banda di un sistema `e ampia e pi` u esso tende a rispondere rapidamente agli ingressi applicati. Naturalmente, nel procedimento poc’anzi seguito abbiamo considerato una risposta impulsiva e una risposta armonica che non sono esattamente l’una la trasformata di Fourier dell’altra ma solo con un certo grado di approssimazione (per non parlare del fatto che sistemi di quel tipo non sono fisicamente realizzabili), di conseguenza la relazione di sopra non va considerata esatta, tuttavia essa rimane qualitativamente valida, in quanto le funzioni considerate possono essere considerate come approssimazioni di funzioni reali con diagrammi del tipo tracciato in Fig. 4.13 con linea tratteggiata.

4.6

Diagrammi di Bode

Gi` a dai semplici esempi presentati nel paragrafo precedente si intuisce come una rappresentazione grafica della risposta armonica permetta di comprendere in maniera immediata le propriet` a filtranti di un sistema, cio`e il suo modo di rispondere al variare del contenuto frequenziale del segnale di ingresso. Infatti, nell’Esempio 4.10, se il segnale di ingresso ha uno spettro confinato tutto all’interno della banda del sistema, allora lo spettro dell’uscita sarebbe pari a quello dell’ingresso stesso (visto che |W | ≃ 1) e dunque il sistema non introdurrebbe alcuna distorsione di ampiezza. Appare, quindi, indispensabile avere a disposizione uno strumento semplice ed efficace che consenta di rappresentare graficamente la risposta armonica di un sistema di cui sia nota la f.d.t. W (s) e quindi la risposta in frequenza W (jω) = W (s)|s=jω . Diciamo subito che presenteremo un metodo valido anche nel caso in cui il sistema non sia asintoticamente stabile e quindi nel caso in cui non esiste risposta a regime permanente ad un ingresso sinusoidale. Infatti, in tal caso, da un lato, continua ad essere possibile considerare la restrizione della W (s) all’asse immaginario, e dall’altro si `e detto che comunque la risposta di un sistema instabile ad un segnale sinusoidale pu` o essere ancora sinusoidale tramite una scelta opportuna dello stato iniziale e della frequenza. Tra i diversi tipi di diagrammi a disposizione per rappresentare la risposta armonica, quelli pi` u diffusi sono i diagrammi di Bode, che consistono in due grafici, il primo, detto diagramma dei moduli, riporta la grandezza |W (jω)|dB in funzione di log10 ω, mentre il secondo, detto diagramma delle fasi, riporta a la grandezza arg(W (jω)) (in gradi) sempre in funzione di log10 ω. In realt` il metodo che stiamo per presentare permetter` a di rappresentare i cosiddetti diagrammi asintotici di Bode, cio`e delle approssimazioni dei diagrammi effettivi, ma semplici da tracciare manualmente. Naturalmente, in MATLAB `e possibile tracciare i diagrammi esatti e i comandi necessari saranno presentati alla fine del presente capitolo24 . 24

Al contrario, non esiste alcuna funzione predefinita che consenta il tracciamento dei

4.6. Diagrammi di Bode

179

Si consideri la funzione di trasferimento W (s) =

a1 sm + a2 sm−1 + · · · + am+1 , b1 sn + b2 sn−1 + · · · + bn+1

a1 , b1 6= 0

che pu` o essere fattorizzata nella forma ′

µ Y



(1 +

sτi′ )mi

W (s) = Ksm0 −n0 i=1 µ

Y

ni

(1 + sτi )

i=1

ν Y

(1 + 2ζh′ s/ωn′ h + s2 /ωn′2h )mh

h=1 ν Y

(4.18)

(1 + 2ζh s/ωnh + s

2

/ωn2 h )nh

h=1

dove −1/τi sono i poli reali non nulli di molteplicit` a ni di W (s) −1/τi′ sono gli zeri reali non nulli di molteplicit` a mi di W (s) ζh sono gli smorzamenti delle coppie di poli complessi e coniugati di molteplicit` a nh di W (s) ζh′ sono gli smorzamenti delle coppie di zeri complessi e coniugati di molteplicit` a mh di W (s) ωnh sono le pulsazioni naturali delle coppie di poli complessi e coniugati di molteplicit` a nh di W (s) ωn′ h sono le pulsazioni naturali delle coppie di zeri complessi e coniugati di molteplicit` a mh di W (s) m0 molteplicit` a dell’eventuale zero nell’origine di W (s) n0 molteplicit` a dell’eventuale polo nell’origine di W (s) mentre la costante di guadagno K `e pari a

K=

µ Y

am+1−m0 a1 i=1 = lim sn0 −m0 W (s) = µ′ s→0 bn+1−n0 b1 Y i=1



τini

ν Y

h ωn′2m h

h=1 ν Y

τi′mi

ωn2nhh

h=1

in altri termini, K `e il guadagno statico del sistema privato degli zeri e dei poli nell’origine. diagrammi asintotici.

180

Capitolo 4. Analisi dei sistemi nel dominio della frequenza 40 K>0 10

[deg]

10

0

20log |K|

arg(W)

[dB]

20

|W|

30

0 −10 −1 10

−50 −100 −150

0

10 log10 ω [rad/s]

1

10

K 0 e −180◦ se K < 0.

4.6. Diagrammi di Bode

181

40

200 k=2

k=1

−20

[deg]

k=−1

0

|W|

[dB]

20

100

arg(W)

k=−2

0

k=1

k=−1

−100

k=2

−40 −1 10

k=−2 0

10 log ω [rad/s]

10

−200 −1 10

1

10

0

10 log10 ω [rad/s]

1

10

Figura 4.15: Diagramma di Bode del termine monomio (jω)k 10 0 [deg]

−20 db/decade

−10

−30

b

a

−60

−45°/decade

−80

−40 −50 −2 10

−20 −40

−20

arg(W)

|W|

[dB]

0

0

10 log10 ωτ

10

2

−100 −2 10

0

10 log10 ωτ

2

10

Figura 4.16: Diagramma di Bode del termine binomio (1 + jωτ )−1 , per τ > 0 (in grigio il diagramma reale, in nero il diagramma asintotico)

Termine monomio. da25

Le quantit` a da diagrammare (modulo e fase) sono date (jω)k dB  

arg (jω)k

= 20k log10 ω = 90◦ k

Dunque, i moduli, come funzioni della variabile log10 ω, sono rette che passano per l’origine e hanno pendenza 20k dB/decade; le fasi, invece, sono rette orizzontali di ordinata 90◦ k. In Fig. 4.15 sono riportati i relativi diagrammi per diversi valori dell’esponente k. 25

Si ricorda che stiamo considerando solo le pulsazioni positive.

182

Capitolo 4. Analisi dei sistemi nel dominio della frequenza

Termine binomio.

Le quantit` a da diagrammare sono (1 + jωτ )k dB  

arg (1 + jωτ )k

= 20k log10

p

1 + ω2τ 2

= k arg(1 + jωτ )

che ammettono le seguenti approssimazioni26 ≃

(

k arg(1 + jωτ ) ≃

(

20k log10

p

1+

ω2τ 2

20k log10 1 = 0 ω > 1/|τ | k arg(1) = 0◦ ω > 1/|τ |

Per capire come sono fatti i diagrammi, iniziamo a considerare il caso di un termine binomio relativo ad un polo negativo di molteplicit` a 1 della f.d.t. (τ > 0 e k = −1). Con riferimento alla Fig. 4.16 (dove `e riportato il diagramma in funzione della variabile normalizzata log10 ωτ ), si nota che il diagramma dei moduli parte da 0 dB e fino a che ω < 1/τ si mantiene praticamente costante, e a partire da ω = 1/τ inizia a decrescere con una pendenza quasi costante di −20 dB/decade. Infatti, le approssimazioni asintotiche ci dicono che per valori di ω 0, k < 0, i diagrammi di Bode si ottengono moltiplicando per |k| le ordinate di quelli appena visti, mentre quelli di un termine a numeratore, cio`e del tipo (1 + jωτ )k con τ > 0, k > 0, si ottengono moltiplicando per |k| le ordinate e ribaltando rispetto all’asse delle ascisse quelli appena visti. Nel caso τ < 0 il diagramma dei moduli rimane identico a quello per τ > 0, mentre quello delle fasi si ottiene ribaltando rispetto all’asse delle ascisse quello per τ > 0. Cos`ı, ad esempio, i diagrammi di Bode del termine (1 + jωτ )−2 , τ < 0 sono quelli in Fig. 4.17. Termine trinomio. seguenti 26

Le funzioni della pulsazione ω da diagrammare sono le

La funzione sign(x) restituisce +1 se x > 0, −1 se x < 0 e 0 se x = 0.

4.6. Diagrammi di Bode

183

10

200

[deg]

−10

−40 db/decade

−20

arg(W)

|W|

[dB]

0

−30

150 +90°/decade

100 50

−40 0

−50 −2 10

0

10 log10ωτ

10

2

−2

0

10

10 log10ωτ

2

10

Figura 4.17: Diagramma di Bode del termine binomio (1 + jωτ )−2 , per τ < 0 (in grigio il diagramma reale, in nero il diagramma asintotico) ! 2 k 2ζ ω 1+ jω − 2 = ωn ωn dB  ! 

2ζ ω2 arg  1 + jω − 2 ωn ωn

k

20k log10

q

(1 − ω 2 /ωn2 )2 + 4ζ 2 ω 2 /ωn2

2ζ ω2  = k arg 1 + jω − 2 ωn ωn

!

che ammettono le approssimazioni 20k log10

s 

ω2 1− 2 ωn

2

ω2 + 4ζ 2 2 ≃ ωn

2ζ ω2 k arg 1 + jω − 2 ωn ωn

!



(

20k log10 1 = 0 ω > ωn

(

k arg(1) = 0◦ ω > ωn

Anche in questo caso, per fissare le idee, consideriamo il caso di un termine trinomio relativo a due poli complessi e coniugati di molteplicit` a 1 e con smorzamento27 ζ > 0. I relativi diagrammi sono riportati in Fig. 4.18 per vari valori di ζ e in funzione della variabile normalizzata √ log10 ω/ωn . Si vede √ che il diagramma dei moduli ha un massimo = 0 dB per |ζ| > 2/2 e per |ζ| < 2/2 pari al modulo di risonanza 1 p Mr = 2|ζ| 1 − ζ 2 che si raggiunge in corrispondenza della pulsazione di risonanza q

ωr = ωn 1 − 2ζ 2 . 27 Si ricorda che lo smorzamento `e sempre in valore assoluto minore di 1, altrimenti le radici sono reali e il termine trinomio `e il prodotto di due termini binomi.

184

Capitolo 4. Analisi dei sistemi nel dominio della frequenza

20

−20 −30 −40 −1 10

ζ=0.7 ζ=1

[deg]

−10

−50 −100

ζ=0.7

0

ζ=0.5 ζ=1 −90°/decade b

−150

−40 dB/decade

10 log10 ω/ωn

ζ=0.1 ζ=0.3

0

arg(W)

[dB] |W|

0

ζ=0.1 ζ=0.3 ζ=0.5

10

a

10

1

−200 −2 10

0

2

10 log10 ω/ωn

10

2

Figura 4.18: Diagramma di Bode del termine trinomio (1+ ω2ζn jω − ωω2 )−1 , per ζ = n {0.1, 0.3, 0.5, 0.7, 1} (in grigio il diagramma reale, in nero il diagramma asintotico) √ Infatti, si ritrova che per ζ = ± 2/2 risulta ωr = 0, mentre per ζ = ±0.5 il diagramma interseca l’asse delle ascisse in corrispondenza della pulsazione naturale. L’approssimazione asintotica `e costituita dalla retta orizzontale di ordinata nulla fino a ωn e, da tale pulsazione in poi, dalla retta inclinata di −40 dB/decade, dunque per il diagramma dei moduli del termine trinomio il punto di rottura `e o ωn . Si noti come, a differenza del caso precedente, il diagramma reale si pu` discostare sensibilmente da quello asintotico, specialmente per valori piccoli di ζ. Passando al diagramma delle fasi, si osserva che per valori molto piccoli di ω (ω 0 vale −180◦ . Inoltre, per ω = ωn e ∀ζ `e evidente che la fase vale −90◦ sign(ζ), quindi un primo diagramma approssimato `e quello indicato con ‘a’ in Fig. 4.18. Mentre, per ottenere un’approssimazione asintotica migliore nell’intervallo di pulsazioni intorno a ωn si pu` o usare, anche ◦ in questo caso, una retta inclinata di −90 /decade che parte dal punto di rottura sinistro 0.1ωn e termina nel punto di rottura destro 10ωn , come il diagramma ‘b’ riportato in Fig. 4.18. 

2

k

Per un generico termine trinomio a denominatore, cio`e 1 + ω2ζn jω − ωω2 n con ζ > 0, k < 0, i diagrammi di Bode si ottengono moltiplicando per |k| le ordinate di quelli appena visti, mentre quelli di un termine a numeratore, cio`e

4.6. Diagrammi di Bode

185

80

0

20

[deg]

[dB]

40

|W|

60

−100

arg(W)

+80 dB/decade

−200

°

−180 /decade

−300

0

ζ=−0.2

ζ=−0.2

−20 −1 10

0

10 log ω/ω 10

10

1

n

10

−2

0

Figura 4.19: Diagramma di Bode del termine trinomio (1 + ω2ζn jω − ζ < 0 (in grigio il diagramma reale, in nero il diagramma asintotico) 

2

2

10 log10 ω/ωn

10

ω2 2 2 ) , ωn

per

k

1 + ω2ζn jω − ωω2 con ζ > 0, k > 0, si ottengono moltiplicando per |k| le ordinate n e ribaltando rispetto all’asse delle ascisse quelli appena visti. Nel caso ζ < 0, il diagramma dei moduli rimane identico a quello per ζ > 0, mentre quello delle fasi risulta ribaltato rispetto all’asse delle ascisse. Cos`ı, ad esempio, i diagrammi 

di Bode del termine 1 +

2ζ ωn jω



ω2 2 ωn

2

, ζ < 0 sono quelli riportati in Fig. 4.19.

Concludiamo il paragrafo fornendo un algoritmo per il tracciamento dei diagrammi di Bode di una f.d.t. generica con l’uso di matita e squadrette.

4.6.1

Tracciamento del diagramma asintotico dei moduli.

Con riferimento ai simboli usati nella forma fattorizzata (4.18), si eseguano i seguenti passi. Passo 1. Si segnino le ascisse dei punti di rottura corrispondenti a 1/|τi′ |, 1/|τi |, ωnh , ωn′ h e si associno a ciascuna le pendenze lj (espresse in dB/decade) cos`ı definite

lj =

  20mi    40m

h

 −20ni   

−40nh

per per per per

i i i i

termini termini termini termini

binomi di molteplicit` a mi a numeratore trinomi di molteplicit` a mh a numeratore binomi di molteplicit` a ni a denominatore trinomi di molteplicit` a nh a denominatore

Passo 2. Si tracci il primo segmento del diagramma, che `e una semiretta di pendenza l0 = 20(m0 − n0 ) dB/decade e che interseca, eventualmente con il suo

186

Capitolo 4. Analisi dei sistemi nel dominio della frequenza

prolungamento, l’asse delle ordinate28 nel punto 20 log10 |K| e quello delle ascisse 1

nel punto29 |K| n0 −m0 .

Passo 3. Si traccino i segmenti successivi del diagramma in modo che ciascuno risulti inclinato rispetto al precedente di lj dB/decade, ovvero di lj+ = l0 + l1 + · · · + lj dB/decade rispetto all’asse delle ascisse. Si verifichi che l’ultimo segmento risulti inclinato di 20(m − n) dB/decade rispetto all’asse delle ascisse.

4.6.2

Tracciamento del diagramma asintotico delle fasi.

Passo 1. Si segnino le ascisse dei punti di rottura in corrispondenza di una decade prima (punti di rottura sinistri) e una decade dopo (punti di rottura destri) di ciascun punto di rottura del diagramma dei moduli, e si associno a ciascuno le pendenze sinistre ljs e destre ljd (espresse in ◦ /decade) cos`ı definite   45sign(τi′ )mi    ′

per i termini 90sign(ζh )mh per i termini ljs =  −45sign(τi )ni per i termini    −90sign(ζh )nh per i termini

binomi di molteplicit` a mi a numeratore trinomi di molteplicit` a mh a numeratore binomi di molteplicit` a ni a denominatore trinomi di molteplicit` a nh a denominatore

ljd = −ljs

Passo 2. Si tracci il primo segmento del diagramma che `e una semiretta orizzontale e che interseca, eventualmente con il suo prolungamento, l’asse delle ordinate nel punto ϕ0 definito fase iniziale (limω→0 arg(W (ω)))

ϕ0 =

(

90◦ (m0 − n0 ) se K > 0 ◦ ◦ 90 (m0 − n0 ) − 180 se K < 0

Passo 3. Si traccino i lati consecutivi del diagramma in modo che ciascuno risulti inclinato rispetto al precedente di lj ◦ /decade, ovvero di lj+ = l1 + l2 + · · · + lj ◦ /decade rispetto all’asse delle ascisse, e si verifichi che l’ultimo segmento sia orizzontale e di quota pari a ϕf definita fase finale (limω→+∞ arg(W (ω))), 28 Assumeremo d’ora in avanti che l’asse delle ordinate interseca quello delle ascisse nel punto di pulsazione 1 rad/s. 29 Infatti, |K(jω)m0 −n0 | = 1 ⇔ ω m0 −n0 = |K|−1 ⇔ ω = |K|−1/(m0 −n0 ) .

4.6. Diagrammi di Bode

187

che si ottiene sommando tra loro i seguenti contributi −180◦ +90◦ (m0 − n0 ) Pµ′ +90◦ sign(τi′ )mi Pi=1 ′ ν +180sign(ζh′ )mh Ph=1 µ −90◦ sign(τi )ni Pi=1 ν ◦ h=1 −180 sign(ζh )nh

solo se K < 0 delle singolarit` a nell’origine dei termini binomi di molteplicit` a mi a numeratore dei termini trinomi di molteplicit` a mh a numeratore dei termini binomi di molteplicit` a ni a denominatore dei termini trinomi di molteplicit` a nh a denominatore

Illustriamo il funzionamento della procedura con un esempio.

Esempio 4.12 Si vogliano tracciare i diagrammi di Bode della f.d.t. W (s) =

20s(1 + s/0.5) (1 + s/2)2 (1 + s/100 + s2 /1002 )

Si vede che la W (s) ha un numeratore di grado m = 2 e un denominatore di grado n = 4 ed `e gi` a in forma fattorizzata, con i seguenti parametri • Singolarit` a nell’origine

m0 = 1,

n0 = 0

• Costante di guadagno K = 20 > 0, KdB = 20 log 10 |K| ≃ 26 • Punti di rottura del diagramma dei moduli 1/τ1′ = 0.5,

1/τ1 = 2,

ωn1 = 100

• Punti di rottura del diagramma delle fasi {0.05, 5},

{0.2, 20},

{10, 1000}

Il diagramma dei moduli presenta un primo segmento inclinato di 20(m0 − n0 ) = +20 dB/decade che incontra l’asse delle ordinate nel punto a 26 dB, in effetti con il suo prolungamento visto che prima dell’ascissa ω = 1 c’`e un punto di rottura in ω = 0.5. Il tracciamento prosegue cambiando pendenza nei punti di rottura secondo le regole descritte e termina con un segmento di pendenza 40(m − n) = −40 dB/decade, come mostra la Fig. 4.20. Il diagramma delle fasi parte con fase iniziale ϕ0 = 90◦ (m0 − n0 ) = +90◦ e termina con la fase finale ϕf = +90◦ + 90◦ − 2 · 90◦ − 180◦ = −180◦ . Effettuando i cambi di pendenza secondo le regole descritte si ottiene il diagramma riportato in Fig. 4.20.

188

Capitolo 4. Analisi dei sistemi nel dominio della frequenza

[dB]

20

|W|

40

0

+40 dB/dec

−40 dB/dec

+20 dB/dec

−20 −40 −2 10

10

−1

10

0

1

2

10 log ω [rad/s]

3

10

10

10

−45°/dec

arg(W)

[deg]

+45°/dec

100 −90°/dec −180°/dec

0

−90°/dec

−100 −200 −2 10

10

−1

10

0

1

10

2

10

3

10

log10 ω [rad/s]

Figura 4.20: Diagramma di Bode dell’Esempio 4.12 (in grigio il diagramma reale, in nero il diagramma asintotico)

4.7

Cenni sui sistemi a tempo discreto

Anche per i sistemi a tempo discreto se si calcola la risposta ad un segnale prima esponenziale (del tipo u(k) = λk , λ ∈ C) e poi ad un segnale sinusoidale (del tipo u(k) = sin θk) si scopre che l’uscita `e un segnale dello stesso tipo dell’ingresso. Quindi, per un sistema asintoticamente stabile, si pu` o definire la risposta in frequenza come la funzione W (ejθ ) = [W (z)]z=ejθ = C(ejθ I − A)−1 B + D

(4.19)

che, per ogni pulsazione θ, pu` o essere interpretata come quel numero complesso il cui modulo `e il rapporto tra l’ampiezza della risposta nell’uscita ad un segnale sinusoidale e l’ampiezza dell’ingresso, ed il cui argomento `e lo sfasamento tra i due segnali. Difatti, la risposta ad un segnale sinusoidale U cos(θ0 k) si pu` o scrivere come 



y(k) = |W (ejθ0 )|U cos θ0 k + arg(W (ejθ0 )) .

(4.20)

4.8. Comandi MATLAB

189

Si osservi che, analogamente al caso tempo continuo, anche nel caso tempo discreto la risposta armonica viene calcolata valutando la f.d.t. del sistema sulla frontiera della regione del piano complesso all’interno della quale si trovano i poli di un sistema asintoticamente stabile, nella fattispecie il cerchio di raggio unitario, la cui circonferenza ha appunto equazione z = ejθ . Esempio 4.13 Dato il sistema a tempo discreto con f.d.t. W (z) =

z2

z − 0.1 − 0.4z + 0.03

troviamo la risposta al segnale sinusoidale, applicato da −∞, u(k) = 5 sin(2k). Dato che il sistema ha due poli in 0.3 e 0.1, `e asintoticamente stabile e quindi la risposta a regime esiste e pu` o essere determinata applicando la (4.20) y(k) = 5|W (ej2 )| sin(2k + arg(W (ej2 ))) = 4.32 sin(2k − 2.24) .

4.8

Comandi MATLAB

In MATLAB `e possibile tracciare i diagrammi di Bode reali ma non quelli asintotici (almeno di non scrivere dei programmi opportuni). Il comando che permette di disegnare direttamente su una finestra grafica i diagrammi `e >> bode(W) dove W `e una variabile di tipo sistema. Se si volesse avere a disposizione in due variabili modulo e fase della risposta armonica di W, basterebbe usare i parametri di uscita del comando bode >> [m,f,w]=bode(W) dove il modulo m `e in valori naturali, la fase f `e in gradi e w `e il vettore delle pulsazioni in rad/s. Se si volesse specificare un intervallo di pulsazioni, viene in aiuto il comando logspace che ci consente di creare un vettore w a spaziatura logaritmica, cos`ı, ad esempio, se si volesse avere un vettore w di 500 punti dalla pulsazione 10−2 alla pulsazione 103 , basterebbe usare l’istruzione >> w=logspace(-2,3,500); Per averlo, invece, a spaziatura lineare con passo di 0.1 rad/s basterebbe usare l’operatore : nel seguente modo30 30

La notazione esponenziale xey equivale a x10y .

190

Capitolo 4. Analisi dei sistemi nel dominio della frequenza

>> w=1e-2;0.1:1e3; Volendo trovare i punti di rottura del diagramma asintotico, occorrerebbe calcolare i poli e gli zeri del sistema con i comandi pole e tzero, rispettivamente, mentre il comando damp fornisce pulsazioni naturali e smorzamenti. Un comando grafico molto utile per il tracciamento manuale dei diagrammi di Bode `e semilogx(x,y) che permette di tracciare il grafico di y in funzione di log10(x). Per i sistemi discreti, i comandi sono tutti identici, in quanto le variabili di tipo sistema comprendono anche i sistemi a tempo discreto, basta che quando vengono definite si fornisca anche il valore del periodo di campionamento T . Ad esempio per definire il sistema con f.d.t. W (z) =

z − 0.5 , z 2 + 0.1z + 0.4

T = 0.01 s

basta eseguire l’istruzione >> W=tf([1 -0.5],[1 0.1 0.4],0.01);

4.9

Esercizi

Esercizio 4.1 Determinare la risposta del sistema 







0 1 0 0     0 1 x +  0 u x˙ =  0 −6 −11 −6 1 y = (1

1

0 )x

al segnale di ingresso u(t) = 1 + 3 cos(50t + π/4). Esercizio 4.2 Dato il circuito in Fig. 4.21 con R = 100 kΩ, progettare il valore di capacit` a C in modo che un segnale di ingresso sinusoidale alla pulsazione di 100 rad/s venga attenuato in uscita di 40 dB. Esercizio 4.3 dato il sistema in Fig. 4.22 con RC = 1 s, determinare ω tale che l’uscita del sistema risulti attenuata di 20 dB rispetto al segnale di ingresso u(t) = 20 cos(ωt). Esercizio 4.4 Dato il sistema in Fig. 4.23, determinare il valore di k in modo che il sistema abbia una banda a −3 dB pari ad 1 Hz. Come varia la banda al crescere di k? E il guadagno statico?

4.9. Esercizi

191 R R -

u(t)

C y(t)

+

Figura 4.21: Circuito dell’Esercizio 4.2 C R -

u(t)

+

2 s+4

y(t)

R

Figura 4.22: Sistema dell’Esercizio 4.3 Esercizio 4.5 Dato il sistema meccanico dell’Esempio. 1.3 con k = 1000 N/m, determinare i valori di M e β in modo che il sistema abbia una frequenza di risonanza pari a 100 Hz e un coefficiente di smorzamento pari a 0.2. Esercizio 4.6 Dato il sistema in Fig. 4.24 con u(t) = A sin(ω0 t) e a = 2, determinare il valore di p > 0 tale che l’uscita del sistema sia identicamente nulla ∀A. Rispondere allo stesso quesito nel caso a = 0.5. Esercizio 4.7 Determinare la risposta nell’uscita del sistema in Fig. 4.25, ai segnali di ingresso u1 (t) = 5 e u2 (t) = sin(5t). Esercizio 4.8 Tracciare i diagrammi di Bode dei seguenti sistemi G1 (s) = G3 (s) =

90s + 270 100s + 20 , G2 (s) = 3 (s + 10)(s2 + 50s + 900) s + 10s2 + 100s s2

16s − 4 , + 55s + 250

G4 (s) =

(s −

100 + 10s + 25)

1)(s2

192

Capitolo 4. Analisi dei sistemi nel dominio della frequenza kR

replacemen R

1 s+1

-

u(t)

+

y(t)

R

Figura 4.23: Sistema dell’Esercizio 4.4 u(t)

-

1 2 s + p2

+

+

2s + 2 s+a

y(t)

Figura 4.24: Schema a blocchi del sistema dell’Esercizio 4.6 Esercizio 4.9 Determinare la banda passante a −3 dB del sistema con f.d.t. G3 (s) definita nell’Esempio 4.8. Esercizio 4.10 Con l’ausilio dei diagrammi di Bode determinare in modo approssimato la risposta nell’uscita del sistema in Fig. 4.26, ai segnali di ingresso u1 (t) = sin(t) e u2 (t) = 100 cos(200t + π/3).

4.9. Esercizi

193

u2 (t) u1 (t)

+ +

1 s+3 −

+

+

y(t)

s+3 s+6

Figura 4.25: Schema a blocchi del sistema dell’Esercizio 4.7

u1 (t)

+ u2 (t) +

400 s2 + 20s + 400

y(t)

Figura 4.26: Schema a blocchi del sistema dell’Esercizio 4.10

Bibliografia

[1] A. Balestrino, G. Celentano, Teoria dei Sistemi, vol. III, Liguori, Napoli, 1982. [2] P. Bolzern, R. Scattolini, N. Schiavoni, Fondamenti di Controlli Automatici, McGraw-Hill, Milano, 1998. [3] A. Cavallo, R. Setola, F. Vasca, La nuova guida a Matlab, Simulink e Control Toolbox, Liguori, Napoli, 2002. [4] S. Chiaverini, F. Caccavale, L. Villani, L. Sciavicco, Fondamenti di Sistemi Dinamici, McGraw-Hill, Milano, 2003. [5] M. Codegone, Metodi Matematici per l’Ingegneria, Zanichelli, Bologna, 1995. [6] O. I. Elgerd, Control System Theory, Mc Graw-Hill, New York, 1967. [7] E. Fornasini, G. Marchesini, Appunti di Teoria dei Sistemi, Edizioni Libreria Progetto, Padova, 1992. [8] G. F. Franklin, J. D. Powell, A. Emami-Neaini, Feedback Control of Dynamic Systems, Addison Wesley, Reading, MA, 1986. [9] G. F. Franklin, J. D. Powell, Digital Control of Dynamic Systems, Addison Wesley, Reading, MA, 1980. [10] R. Guidorzi, Teoria dei Sistemi: Esercizi e Applicazioni, Zanichelli, Bologna, 1991. [11] T. Kailath, Linear Systems, Prentice-Hall, Englewood Cliffs, N.J., 1980. [12] G. Marro, Controlli Automatici, Zanichelli, Bologna, 1984.

195

APPENDICE A

Numeri complessi

A.1

Definizione di numero complesso

Data una coppia ordinata di numeri reali (a, b), si definisce numero complesso z l’espressione z = a + jb dove i numeri a e b sono detti parte reale e parte immaginaria del numero complesso z e si indicano anche con le notazioni a = Re(z) b = Im(z) mentre il numero complesso j `e detto unit` a immaginaria.

A.2

Operazioni tra numeri complessi

Dati due numeri complessi z1 = a + jb e z2 = c + jd, la loro somma `e il numero complesso z1 + z2 = (a + c) + j(b + d) mentre il loro prodotto `e il numero complesso z1 z2 = (ac − bd) + j(ad + bc) 197

198

Appendice A. Numeri complessi Im(z) z

b ρ θ

a Re(z)

0

Figura A.1: Rappresentazione grafica di un numero complesso. L’elemento neutro della somma `e ovviamente lo 0, mentre quello del prodotto `e 1, di conseguenza, l’opposto di un numero complesso `e quello che sommato al numero stesso restituisce 0, mentre il reciproco di un numero diverso da 0 `e quello che moltiplicato per il numero stesso restituisce 1.

A.3

Forma trigonometrica di un numero complesso

Graficamente un numero complesso pu` o essere rappresentato su di un piano cartesiano, sulle cui ascisse si riporta la parte reale e sulle cui ordinate la parte immaginaria (vedi Fig. A.1), detto piano di Gauss 1 . Naturalmente, il numero complesso z pu` o essere individuato anche dalle sue coordinate polari, cio`e la distanza ρ dall’origine detta modulo, che si indica col simbolo |z| e l’angolo θ detto argomento o fase, che si indica col simbolo arg(z). Dalla Fig. A.1 `e evidente che valgono le relazioni a = Re(z) = |z| cos(arg(z)) b = Im(z) = |z| sin(arg(z))

(A.1) (A.2)

e quelle inverse p

|z| = a2 + b2 cos θ = a/ρ sin θ = b/ρ 1

(A.3) (A.4) (A.5)

A rigori il piano di Gauss comprende anche il punto all’infinito, vedi, ad esempio, [5].

A.4. Forma esponenziale di un numero complesso

199

Si noti come per determinare univocamente l’argomento θ occorrono sempre le due equazioni (A.4),(A.5). Si chiama forma trigonometrica del numero complesso z l’espressione 



z = |z| cos(arg(z)) + j sin(arg(z))

(A.6)

la cui validit` a discende direttamente dalle relazioni (A.1),(A.2). Dalle definizioni seguono immediatamente le propriet` a |z1 z2 | = |z1 ||z2 | |z1 + z2 | ≤ |z1 | + |z2 | arg(z1 z2 ) = arg(z1 ) + arg(z2 ) arg(z1 /z2 ) = arg(z1 ) − arg(z2 ) z n = ρn (cos nθ + j sin nθ)

A.4

(A.7) (A.8) (A.9) (A.10) (A.11)

Forma esponenziale di un numero complesso

Dato un numero complesso z 6= 0, si ha che il numero complesso z = cos θ + j sin θ |z| ha modulo unitario e lo stesso argomento di z, dunque un qualunque numero complesso non nullo pu` o essere scritto come prodotto di un numero reale (il suo modulo) per un numero complesso di modulo unitario z = |z|

z . |z|

Inoltre, due numeri complessi z1 e z2 di modulo unitario soddisfano delle particolari propriet` a |z1 z2 | = 1 arg(z1 z2 ) = arg(z1 ) + arg(z2 )

(A.12)

cio`e il modulo del loro prodotto `e ancora 1, mentre l’argomento `e la somma degli argomenti. Questo comportamento somiglia al comportamento di un esponenziale reale ex , x ∈ R, infatti ex1 ex2 = ex1 +x2 . In base a tale analogia `e possibile rappresentare i numeri complessi di modulo unitario nella forma esponenziale ejω = cos ω + j sin ω

(A.13)

200

Appendice A. Numeri complessi

e quindi un generico numero complesso z = a + jb di modulo diverso da 1 `e esprimibile come z = |z|ej arg(z) . (A.14) Inoltre, si definisce complesso coniugato del numero complesso z = a + jb il numero complesso (A.15) z ∗ = a − jb = |z|e−j arg(z) che soddisfa le seguenti propriet` a (z1 z2 )∗ = z1∗ z2∗ (z1 + z2 )∗ = z1∗ + z2∗ |z|2 = zz ∗ z + z∗ Re(z) = 2 z − z∗ Im(z) = 2j

(A.16) (A.17) (A.18) (A.19) (A.20)

Infine, notevole importanza hanno le seguenti formule, dette formule di Eulero ejω − e−jω 2j jω e + e−jω cos ω = 2 sin ω =

(A.21) (A.22)

che si ottengono facilmente dalla (A.13) sommandole e sottraendole la sua coniugata.

APPENDICE B

Elementi di algebra delle matrici

Scopo di questa appendice `e richiamare brevemente gli elementi di teoria delle matrici necessari in questo corso. La descrizione sar` a perci` o volutamente schematica.

B.1

Matrici e vettori

Una matrice A m × n `e un insieme di mn elementi aij , i =, . . . , m, j = 1, . . . , n organizzati su m righe e n colonne: 

  A=  

a11 a21 .. .

a12 a22 .. .

··· ··· .. .

a1n a2n .. .

am1 am2 · · · amn



   .  

Una maniera convenzionale per indicare la stessa matrice `e A = {aij }. L’elemento che occupa la riga i–esima e la colonna j–esima `e indicato con aij . Un vettore colonna x di dimensione n `e una matrice con n righe e una colonna 

  x=  

x1 x2 .. . xn

201



  .  

202

Appendice B. Elementi di algebra delle matrici

Il suo elemento di posto i–esimo si indica con xi . Analogamente un vettore riga di dimensione n `e una matrice con una riga e n colonne. Poich´e nel corso parleremo genericamente di vettore, intenderemo sempre sottinteso l’attributo “colonna”; per questo motivo il vettore riga x sar` a indicato con il simbolo di trasposta xT (vedi par. B.4). Per i nostri scopi `e importante menzionare una particolare struttura di matrice: la matrice in forma compagna. In particolare una matrice del tipo 

   A=   

0 0 .. .

1 0 .. .

0 1 .. .

··· ··· .. .

0 0 0 ··· 1 −an −an−1 −an−2 · · · −a1

prende il nome di matrice in forma compagna la forma  0 0 ··· 0  1 0 ··· 0   0 1 ··· 0 A=  .  .. .. . . . ..  . .

       

(B.1)

orizzontale inferiore, mentre se ha −an −an−1 −an−2 .. .

0 0 ··· 1

−a1

`e detta matrice in forma compagna verticale destra.

B.2

0 0 .. .

       

(B.2)

Somma, differenza e prodotto per uno scalare

Due matrici A e B delle stesse dimensioni possono essere sommate fra loro. Il risultato `e una matrice i cui elementi sono la somma degli elementi corrispondenti delle matrici addendo: se C = A + B, allora cij = aij + bij Il prodotto di una matrice per uno scalare d` a una matrice i cui elementi sono quelli della matrice di partenza moltiplicati per lo scalare: se B = kA, bij = kaij Infine la differenza fra due matrici `e definita come la somma della prima e delle seconda moltiplicata per lo scalare −1: C = A − B ⇒ cij = aij − bij . Ricordiamo che la somma gode delle propriet` a commutativa e associativa: A+B = B+A (A + B) + C = A + (B + C)

B.3. Prodotto di matrici

B.3

203

Prodotto di matrici

Di due matrici A m × p e B p × n `e possibile definire il prodotto righe per colonne C = AB come la matrice m × n che ha per elementi cij =

n X

aik bkj

k=1

Il prodotto gode della propriet` a associativa: A(BC) = (AB)C . Ma in generale non della propriet` a commutativa AB 6= BA anzi in generale non `e detto che il secondo prodotto esista.

B.4

Trasposizione

Se A `e una matrice m × n la sua trasposta B, indicata con il simbolo B = AT `e la matrice che si ottiene scambiando le righe e le colonne della matrice di partenza bij = aji . Una matrice si dice simmetrica se A = AT , antisimmetrica se A = −AT . Una matrice quadrata (n × n) `e sempre decomponibile in una parte simmetrica (A + a della trasposta sono AT )/2 e una antisimmetrica (A − AT )/2. Propriet` (AB)T (ABC)T (A + B)T

B.5

= B T AT = C T B T AT = AT + B T

(B.3)

Determinante

Il determinante di una matrice A n × n, indicato conPi simboli |A| o det(A) `e uno scalare definito dall’espansione di Laplace |A| = nj=1 aij γij , ∀i = 1, . . . , n. γij `e detto cofattore, γij = −1i+j |M |ij e Mij , detto minore della matrice data, `e la matrice che si estrae da quella di partenza eliminando la riga i–esima e la colonna j–esima. In questo modo il determinante di una matrice di ordine n `e definito tramite n determinanti di ordine n − 1 che a loro volta saranno definiti con determinanti di ordine n−2 e cos`ı via. La trasposta della matrice dei cofattori prende il nome di matrice aggiunta: adj(A) = {γij }T .

204

Appendice B. Elementi di algebra delle matrici

Una matrice il cui determinante sia nullo `e detta singolare, altrimenti `e non singolare. Propriet` a del determinante. Se una riga (o una colonna) di una matrice `e moltiplicata per uno scalare α, allora il determinante `e α |A|, quindi |αA| = αn |A| Se due righe o due colonne sono scambiate il determinante cambia di segno; da ci` o si pu` o dedurre che T A = |A| . Infine, se A e B sono matrici quadrate,

|AB| = |A| |B| .

B.6

Rango

Il rango di una matrice `e il massimo numero di righe o colonne linearmente indipendenti della matrice. In particolare, se una matrice ha rango r, allora tutte le possibili sottomatrici (r + 1) × (r + 1) estraibili dalla matrice data hanno determinante nullo.

B.7

Inversa

Sia A una matrice n×n non singolare; allora la sua inversa, indicata con il simbolo A−1 esiste ed `e definita come A−1 =

adj(A) |A|

e gode della propriet` a A−1 A = AA−1 = In , dove In `e la matrice identit` a di ordine n. Valgono le propriet` a (AB)−1 = B −1 A−1 se entrambe le matrici sono invertibili, e inoltre (A−1 )T = (AT )−1 . Vale infine il lemma di inversione matriciale: (A + BCD)−1 = A−1 − A−1 B(DA−1 B + C −1 )−1 DA−1 supposto che tutte le inverse e i prodotti abbiano senso.

B.8. Polinomio caratteristico e teorema di Cayley–Hamilton

B.8

205

Polinomio caratteristico e teorema di Cayley–Hamilton

Data una matrice quadrata A, si definisce polinomio caratteristico della matrice: p(s) = |sI − A| = sn + a1 sn−1 + · · · + an Le radici del polinomio caratteristico sono dette autovalori della matrice. Il teorema di Cayley–Hamilton afferma che ogni matrice quadrata `e radice del suo polinomio caratteristico, ovvero p(A) = An + a1 An−1 + · · · + an I = 0 Una interessante propriet` a delle matrici in forma compagna `e data dal fatto che il polinomio caratteristico delle (B.1),(B.2) `e proprio sn + a1 sn−1 + · · · + an .

B.9

Autovalori e autovettori

Sia λi un autovalore della matrice quadrata A; allora esiste sempre almeno un vettore u che soddisfa l’equazione Au = λi u

(B.4)

Il vettore u `e detto autovettore della matrice A. In particolare se λi `e una radice di molteplicit` a unitaria del polinomio caratteristico allora l’autovettore `e unico (a meno di un fattore di scala ovvero se u `e un autovettore, anche αu, con α scalare, lo `e), altrimenti possono esistere pi` u autovettori associati allo stesso autovalore. In genere gli autovettori vengono normalizzati, ovvero kuk = 1. Due importanti propriet` a degli autovalori sono n X

λi = tr(A)

i=1

dove tr(A) indica la traccia della matrice, cio`e la somma degli elementi sulla diagonale principale; inoltre n Y

i=1

λi = |A|

quindi una matrice `e singolare se e solo se ha almeno un autovalore nullo.

B.10

Matrici simili e diagonalizzazione

Due matrici A e B sono dette simili se esiste una matrice T invertibile tale che B = T −1 AT

206

Appendice B. Elementi di algebra delle matrici

In particolare, per quanto detto al paragrafo precedente, `e possibile dimostrare che se la matrice quadrata A ha autovalori distinti, i corrispondenti autovettori sono linearmente indipendenti e quindi la matrice U che ha per colonne gli autovettori `e invertibile. Posta quindi Λ la matrice diagonale costruita a partire dagli autovalori, dalla (B.4) si ricava AU = U Λ, e quindi Λ = U −1 AU cos`ı la matrice A `e simile ad una matrice diagonale ed `e detta diagonalizzabile.

B.11

Funzioni di matrici e operazioni differenziali

1. Esponenziale matriciale. La funzione exp(A) (o pi` u semplicemente eA ) `e definita come eA ≡ exp(A) = I + A +

1 2 1 A + A3 + · · · 2! 3!

(B.5)

In particolare se A `e diagonalizzabile eA = U eΛ U −1 , dove eΛ = diag{eλi }, e in generale f (A) = U f (Λ)U −1 , dove f (Λ) = diag{f (λi )} .

(B.6)

2. Derivata. Sia data una matrice A(t) funzione di uno scalare t; allora la sua derivata rispetto a t `e definita elemento per elemento: dA = dt



daij (t) dt



3. Integrale. Analogamente l’integrale `e definito elemento per elemento: Z

A(t)dt =

Z

aij (t)dt



4. Matrice Jacobiana. Sia dato una funzione vettoriale di un vettore, f (x); allora la matrice jacobiana si definisce come df = dx

(

∂fi ∂xj

)

APPENDICE C

Tabella di trasformate di Laplace In questa appendice si indica con F (s) la trasformata di Laplace della funzione f (t), che viene assunta nulla per t < 0, per cui ogni funzione nel dominio del tempo `e supposta essere moltiplicata per un gradino unitario.

F (s)

f (t)

1

δ(t)

(impulso unitario in t = 0)

1 s

1(t)

(gradino unitario in t = 0)

1 s2

t

(rampa unitaria in t = 0)

sn+1

tn n!

1 −sT e s

1(t − T )

 1 1 − e−sT s

1(t) − 1(t − T )

1

(gradino unitario in t = T )

207

(finestra di durata T )

208

Appendice C. Tabella di trasformate di Laplace

F (s)

f (t)

1 s+a

e−at

1 (s + a)n+1

tn −at e n!

s2

ω + ω2

sin ωt

s2

s + ω2

cos ωt

2ωs + ω 2 )2

t sin ωt

s2 − ω 2 (s2 + ω 2 )2

t cos ωt

s sin φ + ω cos φ s2 + ω 2

sin(ωt + φ)

ω (s + a)2 + ω 2

e−at sin ωt

s+a (s + a)2 + ω 2

e−at cos ωt

(s2

1 2 s + 2ζωn s + ωn2 s(s2

1 + ω2)

ωn

q 1 −ζωn t e sin ω 1 − ζ 2t n 1 − ζ2

p

1 (1 − cos ωt) ω2

APPENDICE D

Tabella di trasformate Z

In questa appendice si indica con F (z) la trasformata Z della successione f (k), che viene assunta nulla per k < 0. F (z)

f (k)

1

δ(k)

(impulso unitario in k = 0)

z z−1

1(k)

(gradino unitario in k = 0)

z (z − 1)2

k

z(z + 1) (z − 1)3

k2

z z−r

rk

zr (z − r)2

kr k

(rampa unitaria in k = 0)

(parabola unitaria in k = 0)

209

Appendice D. Tabella di trasformate Z

210 F (z)

f (k)

z(1 − r) (z − 1)(z − r)

1 − rk

z2

z sin a − (2 cos a)z + 1

sin ak

z2

z(z − cos a) − (2 cos a)z + 1

cos ak

z2

z(z − r cos b) − 2r(cos b)z + r 2

r k cos bk

z2

zr sin b − 2r(cos b)z + r 2

r k sin bk

Indice analitico

Amplificatore operazionale, 106 Argomento, 198 Autovalore, 147, 205 Autovalori, 64, 87 Autovettore, 205 Banda arrestante a k dB, 172 larghezza di, 157, 160 passante a −k dB, 171, 173 Campionamento periodo di, 133 propriet`a del, 51 Coefficienti di Fourier, 156 Componente continua, 157 Componenti armoniche, 157 Connessione, 80 in parallelo, 81 in retroazione, 81 in retroazione positiva, 82 in serie, 80 Controllabilit`a, 35, 65, 111 Convertitore analogico/digitale, 133 digitale/analogico, 133 Convoluzione, 47, 54, 139 integrale di, 48, 54, 72

somma di, 138 Coordinate generalizzate, 16 Decade, 175 Determinante, 203 Diagrammi di Bode, 178 Energia cinetica, 8 elettrostatica, 12 potenziale, 9, 10 Equazione alle differenze, 126 di Eulero-Lagrange, 17 di stato, 21 di uscita, 21 Equilibrio punto di, 39, 85, 95 relazione di, 8, 9, 11, 13 traiettoria di, 40 Evoluzione forzata, 71, 143 libera, 62, 67, 86, 143 Forma canonica di controllo, 33, 89, 133 di osservazione, 31, 89, 133 Formule di Eulero, 200

212 Frequenza, 156, 159 Funzione di dissipazione, 10, 13 Funzione di trasferimento, 61, 140 Gradi di libert`a, 16 Guadagno statico, 98, 151 Impedenza operazionale, 107 Impulso di Dirac, 51 Ingresso, 1 Lagrangiana, 14 Linearizzazione, 35 Matrice, 201 degli ingressi, 25 delle uscite, 25 di transizione, 63 dinamica, 25 in forma compagna, 31, 33, 202 Modello dinamico, 2, 13 linearizzato, 38, 95 matematico, 4 statico, 2 Modi di evoluzione, 67, 147 Modulo, 198 Modulo di antirisonanza, 171 Modulo di risonanza, 171 Movimento, 16, 84 Osservabilit`a, 35, 66, 111 Poli, 55, 64, 141 Polinomio caratteristico, 63, 205 Polinomio minimo, 63, 68, 87, 147 Pulsazione, 156, 159 di antirisonanza, 171 di centro banda, 172 di risonanza, 171 di taglio inferiore, 172 di taglio superiore, 172 naturale, 104, 176 Pulsazione naturale, 69 Punto di rottura, 182, 184 Rango, 204 Rappresentazione

Indice analitico ingresso–stato–uscita, 20, 25, 130 ingresso–uscita, 26, 127 Realizzazione, 28, 105, 131 algoritmi di, 29 Risposta a regime permanente, 97, 99, 165, 166 armonica, 170 esponenziale, 164 impulsiva, 72, 73, 143, 171 in frequenza, 170 indiciale, 78, 100 sinusoidale, 166 Routh coefficienti di, 92 criterio di, 90, 150 tabella di, 90 Scala logaritmica, 174 Schema a blocchi, 4, 79, 110 Serie di Fourier, 155 Sistema, 1 a dati campionati, 133 a dimensione finita, 23 a dimensione infinita, 23 adinamico, 22, 73 astratto orientato, 4 dinamico, 4 elettrico elementare, 11 fisicamente realizzabile, 64 lineare, 23 LTI, 24 meccanico elementare, 8 MIMO, 22 non lineare, 37 SISO, 22 stazionario, 23 stocastico, 23 strettamente proporio, 22 Smorzamento, 104 Sovraelongazione, 100, 103 Spettro a righe, 156, 162 di ampiezza, 156, 160 di fase, 156, 160 Stabilit`a asintotica, 87 BIBO, 84, 88, 148

Indice analitico sotto perturbazioni, 84 Stato, 13 funzione di, 14 variabili di, 16 Tempo costante di, 101 di assestamento, 101 di massima sovraelongazione, 100 di ritardo, 100 di salita, 100, 177 Tenuta di ordine zero, 133 Traiettoria, 84

213 Trasformata Z, 136, 209 di Fourier, 159 di Laplace, 163, 207 di Laplace bilatera, 46 di Laplace unilatera, 53 Uscita, 1, 24 Valor medio, 157 Vettore, 201 Zeri, 55, 64, 74, 141, 165