Complementi Di Matematica Ecampus Tutte Le Lezioni [PDF]

  • 0 0 0
  • Gefällt Ihnen dieses papier und der download? Sie können Ihre eigene PDF-Datei in wenigen Minuten kostenlos online veröffentlichen! Anmelden
Datei wird geladen, bitte warten...
Zitiervorschau

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 1 Presentazione del corso 1

Lezione 1 Presentazione del corso

Lezione 1

Presentazione del corso In questa lezione daremo informazioni sul corso.

1.1

Indicazioni generali

Professore: Gennaro Amendola e-mail: [email protected]

Obiettivi Lo scopo del corso è di fornire le conoscenze di geometria analitica e algebra lineare necessarie per comprendere in maniera soddisfacente i corsi successivi.

Risultati di apprendimento Alla fine dell’itinerario didattico lo studente/la studentessa dovrebbe essere capace di risolvere problemi su • spazi vettoriali, • matrici,

• spazio euclideo,

• curve e superfici.

Contenuti Algebra lineare Spazi vettoriali: Definizione. Dipendenza e indipendenza lineare di vettori. Basi e dimensione di uno spazio vettoriale. Sottospazi vettoriali. Lo spazio dei vettori geometrici. Applicazioni lineari. Matrici: Definizione. Operazioni. Determinante. Rango di una matrice. Trasposta e inversa di una matrice. Applicazioni lineari e matrici. Autovalori e autovettori. Diagonalizzazione.

c 2014 Gennaro Amendola

Versione 1.0

Lezione 1. Presentazione del corso

1–2

Sistemi di equazioni lineari: Definizione. Sistemi lineari omogenei e non omogenei. Soluzioni di sistemi lineari. Metodo di eliminazione di Gauss. Geometria analitica Sottospazi affini: Definizione. Coordinate. Forma implicita e parametrica. Parallelismo. Mutua posizione. Fasci. Collinearità e complanarità. Applicazioni affini. Spazi euclidei: Definizione. Sistemi di riferimento cartesiano. Prodotti scalari. Distanza. Ortogonalità. Angoli. Prodotto vettoriale. Spazi proiettivi: Definizione. Elementi all’infinito ed estensione proiettiva del piano e dello spazio. Coordinate omogenee. Equazioni di rette e piani. Curve:

Definizione. Coniche. Fasci. Polarità. Classificazione.

Superfici: Definizione. Quadriche. Classificazione.

Prerequisiti Una conoscenza di base su insieme, logica, relazioni, funzioni, strutture algebriche, numeri reali e complessi. Tutte le nozioni saranno brevemente riviste nelle prime lezioni. Comunque sia, una conoscenza di base è utile.

1.2

Elenco delle lezioni

L’elenco delle lezioni, divise in nuclei tematici, è il seguente. Riscaldamento 1. Presentazione del corso 2. Insiemi 3. Logica 4. Algebra 5. Polinomi 6. Funzioni e classi di equivalenza 7. Rette e piani

c 2014 Gennaro Amendola

Versione 1.0

Lezione 1. Presentazione del corso

1–3

Spazi vettoriali 8. Vettori geometrici 9. Operazioni, gruppi e campi 10. Spazi vettoriali 11. Combinazioni lineari 12. Sottospazi vettoriali e sottospazi generati 13. Dipendenza e indipendenza lineare 14. Basi e coordinate 15. Dimensione Matrici 16. Matrici 17. Operazioni sulle matrici 18. Determinante 19. Proprietà e calcolo del determinante 20. Rango di una matrice 21. Inversione di matrici Applicazioni lineari 22. Applicazioni lineari 23. Nucleo e immagine 24. Isomorfismi 25. Applicazioni lineari e matrici 26. Cambiamenti di base Sistemi di equazioni lineari 27. Sistemi di equazioni lineari 28. Esistenza e unicità delle soluzioni 29. Regola di Cramer 30. Metodo di eliminazione di Gauss Autovalori, autovalori e diagonalizzazione 31. Autovalori e autovettori 32. Diagonalizzazione Sottospazi affini 33. Sottospazi affini 34. Mutua posizione di sottospazi affini 35. Applicazioni affini

c 2014 Gennaro Amendola

Versione 1.0

Lezione 1. Presentazione del corso

1–4

Prodotti scalari 36. Prodotti scalari 37. Angoli e distanze 38. Basi ortonormali e prodotto vettoriale 39. Isometrie e forme quadratiche Spazi proiettivi 40. Spazi proiettivi Curve e superfici 41. Curve algebriche 42. Coniche 43. Classificazione delle coniche 44. Polarità 45. Centri, diametri, assi e asintoti 46. Superfici algebriche 47. Quadriche 48. Curve differenziabili

1.3

Modalità d’esame

L’esame può essere svolto in una delle due modalità seguenti: • una prova scritta e una prova orale opzionale;

• una prova orale. Per informazioni più dettagliate di veda il "Regolamento per lo svolgimento degli esami di profitto".

1.4

Contatti con il docente

Se lo studente/la studentessa ha bisogno di chiarimenti su argomenti del programma è invitato a utilizzare il sistema di messaggistica oppure l’ufficio virtuale del docente nelle ore di ricevimento online indicate nella Scheda docente (in questo caso può essere utile contattare il docente del corso in anticipo attraverso il sistema di messaggistica).

1.5

Aule virtuali

Verranno organizzate aule virtuali condotte secondo uno schema di “domanda e risposta”. La partecipazione a queste aule virtuali non è obbligatoria. Le date, gli orari e ulteriori indicazioni saranno pubblicate nella Scheda docente.

c 2014 Gennaro Amendola

Versione 1.0

Lezione 1. Presentazione del corso

1.6

1–5

Note

Si suggerisce di leggere la Scheda insegnamento, pubblicata nella Scheda docente. In ogni lezione e in ogni sessione di studio vengono descritti solo i dettagli che riguardano l’argomento della lezione corrente. I dettagli che riguardano le lezioni precedenti sono omessi intenzionalmente per focalizzare l’attenzione sull’argomento della lezione corrente. Quindi, quando si trova davanti a un problema, il lettore/la lettrice dovrebbe stare attento a capire se il problema riguarda l’argomento della lezione corrente o un argomento di una lezione precedente (che è trascurato nella lezione corrente).

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 1/S1 Presentazione del corso 1

Sessione di Studio 1.1 Presentazione del corso

Lezione 1. Presentazione del corso

1–3

Sessione di Studio 1.1 Le Sessioni di Studio 1 sono formate da esercizi risolti. Suggeriamo al lettore/alla lettrice di cercare di risolvere gli esercizi da solo/sola. Quando si trova davanti a un problema, il lettore/la lettrice dovrebbe controllare la soluzione, cercando di risolvere il problema, per poi continuare a cercare di risolvere l’esercizio. Suggeriamo anche un continuo ritorno alla lezione durante la soluzione degli esercizi.

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 1/S2 Presentazione del corso 1

Sessione di Studio 1.2 Presentazione del corso

Lezione 1. Presentazione del corso

1–4

Sessione di Studio 1.2 Le Sessioni di Studio 2 sono formate da esercizi solo con la risposta, senza una soluzione completa. Suggeriamo caldamente il lettore/la lettrice di cercare di risolvere gli esercizi, controllando il risultato alla fine. Quando si trova davanti a un problema, il lettore/la lettrice dovrebbe tornare indietro alla Sessione di Studio 1 o alla Lezione, cercando di trovare un’idea per risolvere l’esercizio. Suggeriamo anche un continuo ritorno alla lezione durante la soluzione degli esercizi.

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 1/S3 Presentazione del corso 1

Sessione di Studio 1.3 Presentazione del corso

Lezione 1. Presentazione del corso

1–5

Sessione di Studio 1.3 Le Sessioni di Studio 3 sono dedicate a letture supplementari. Le letture supplementari possono essere utili ma non sono obbligatorie: Wikipedia: http://it.wikipedia.org/ Wikibooks: http://it.wikibooks.org/ Algebra lineare e geometria analitica (wikibooks): http://it.wikibooks.org/wiki/Algebra_lineare_e_geometria_analitica Wikipedia e Wikibooks possono essere sufficienti come libri di testo, comunque altri libri online in inglese si possono trovare nei seguenti siti web: • http://www.freebookcentre.net/Mathematics/Linear-Algebra-Books.html • http://www.e-booksdirectory.com/listing.php?category=46

• http://www.e-booksdirectory.com/listing.php?category=40

• Kenneth Kuttler, Elementrary Linear Algebra

(http://www.saylor.org/site/wp-content/uploads/2012/02/Elementary-Linear-Algebra-1-30-11-Kuttler-OTC.pdf http://www.saylor.org/site/wp-content/uploads/2012/01/Elementary-Linear-Algebra-Solutions-Manual-1-30-11-Kuttler-OTC.pdf )

• Ruslan A. Sharipov, Course of analytical geometry (http://arxiv.org/abs/1111.6521) Libri di esercizi sono i seguenti: • Romeo Maurizio – Scimmi Benedetto, Esercizi di algebra lineare e geometria (seconda edizione), Maggioli Editore • Carlo Petronio, Geometria e algebra lineare – quesiti ed esercizi, Esculapio Altri libri di testo sono i seguenti: • Marco Abate – Chiara de Fabritiis, Geometria analitica con elementi di algebra lineare (seconda edizione), McGraw-Hill • Lorenzo Robbiano, Algebra lineare per tutti, Springer

• Carlo Petronio, Geometria e algebra lineare, Esculapio

• Serge Lang, Algebra Lineare, Bollati Boringhieri Comunque sia, con l’esclusione di alcune eccezioni, ogni libro di algebra lineare può essere utile, in particolar modo per trovare esercizi.

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

#corso# INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA #insegnamento# 1/S3 #lezione# Presentazione del corso #titolo# 3 #attività#

Sessione di Studio 1.3 Presentazione del corso Informazioni sui quiz

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 1/S3 Presentazione del corso 3

Quiz Nelle Sessioni di Studio 3 sono proposti dei quiz. Questi possono essere utilizzati per controllare il proprio livello di approfondimento degli argomenti studiati. L’esito dei quiz non sarà tenuto in considerazione né per l’ammissione all’esame né per la votazione finale. Il docente restituirà agli studenti il risultato dei quiz con gli strumenti del Virtual Learning Environment. Dopo aver svolto il quiz è fondamentale ricontrollare le domande, specialmente quelle a cui non si è risposto in maniera corretta.

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE COMPLEMENTI DI MATEMATICA 2 Insiemi 1

Lezione 2 Insiemi

2010

Lezione 2

Insiemi In questa lezione rivedremo brevemente alcune nozioni di base sugli insiemi. Esse sono fondamentali per ciò che faremo in seguito, sia per i concetti (che sono la base per i concetti futuri) che per l’introduzione del linguaggio matematico (che useremo nelle altre lezioni).

2.1

Insiemi

Insiemi Un insieme I è una collezione di oggetti. Un oggetto x di una tale collezione I è detto elemento dell’insieme I. Se x è un elemento di I, si dice che x appartiene a I e ciò si indica con x∈I

oppure

oppure

6∈/6∋

I 6∋ x.

L’insieme che non ha elementi è detto insieme vuoto ed è indicato con ∅. Quindi, qualunque sia l’oggetto x abbiamo x 6∈ ∅. Gli insiemi sono caratterizzati dai loro elementi, quindi due insiemi che hanno gli stessi elementi coincidono. Al contrario, due insiemi sono diversi se c’è un elemento di uno dei due che non appartiene all’altro. Un insieme può essere definito in due modi: • per elencazione, ossia elencando i suoi elementi; • per caratteristica, ossia caratterizzando i suoi elementi. Nel caso della definizione per elencazione, l’elenco può essere completo oppure no, ma se non è completo gli elementi omessi devono essere deducibili in maniera ovvia (in tal caso vengono usati i punti di sospensione).

Esempio 2.1. 1. L’insieme {bianco, rosso, verde} è formato dagli elementi “bianco”, “rosso” e “verde”. I colori “blu” e “giallo” non appartengono all’insieme. 2. L’insieme {1, −1, 2, 0} è formato dagli elementi −1, 0, 1 e 2. I numeri 4, −2 e 21 non appartengono all’insieme.

3. Al variare del numero intero positivo n, l’insieme In = {1, 2, 3, . . . , n} è formato dai numeri interi positivi minori o uguali ad n, ossia 1, c 2014 Gennaro Amendola

∈/∋

I ∋ x;

il caso contrario (ossia, se x non appartiene ad I) si indica con x 6∈ I

Insieme

Versione 1.0

Insieme vuoto ∅

Definizione per elencazione e per caratteristica

Lezione 2. Insiemi

2–2

2, 3, e così via, fino ad n. Al variare di n, abbiamo diversi insiemi: per n = 1 abbiamo l’insieme I(1) = {1}, per n = 2 abbiamo l’insieme I(2) = {1, 2}, per n = 3 abbiamo l’insieme I(3) = {1, 2, 3}, per n = 4 abbiamo l’insieme I(4) = {1, 2, 3, 4}, e così via. Per completezza possiamo considerare anche il caso in cui n = 0 e abbiamo l’insieme I0 = ∅. I numeri maggiori di n (ad esempio, n + 1, n + 2, n + 3, ecc.) non appartengono all’insieme In .

4. L’insieme I∞ = {1, 2, 3, . . .} è formato da tutti i numeri interi positivi.

Nel caso della definizione per caratteristica, non si conoscono esplicitamente gli elementi dell’insieme, ma si conosce solo una proprietà che li caratterizza. Ad esempio, può succedere che un insieme definito per caratteristica sia in realtà vuoto. Esempio 2.2. 1. L’insieme rappresentato per elencazione {bianco, rosso, verde} ◮ può essere rappresentato per caratteristica come {x | x è un colore della bandiera italiana}. I colori “blu” e “giallo” non appartengono all’insieme, perché non ◮ Esempio 2.1-1. sono colori della bandiera italiana. 2. L’insieme rappresentato per elencazione {1, −1, 2, 0} ◮ può essere ◮ Esempio 2.1-2. rappresentato per caratteristica come {x | x è un numero intero compreso tra −1 e 2}. I numeri 4, −2 e 12 non appartengono all’insieme: i primi due perché non sono compresi tra −1 and 2, il terzo perché non è intero.

3. L’insieme rappresentato per elencazione I(n) = {1, 2, 3, . . . , n} ◮ ◮ Esempio 2.1-3. può essere rappresentato per caratteristica come {x | x è un numero intero tale che 1 6 x 6 n}. L’insieme I(0) = ∅ è formato dai numeri interi tali che 1 6 x 6 0: infatti non ci sono numeri che sono contemporaneamente maggiori o uguali ad 1, e minori o uguali a 0. I numeri x maggiori di n non appartengono a I(n) perché non soddisfano la condizione x 6 n.

4. L’insieme rappresentato per elencazione {1, 2, 3, . . .} ◮ può essere ◮ Esempio 2.1-4. rappresentato per caratteristica come {x | x è un numero intero positivo}.

Un insieme può anche essere rappresentato con un diagramma di Eulero-Venn, ossia racchiudendo gli elementi, rappresentati come punti, dentro una linea chiusa. Esempio 2.3. Un diagramma di Eulero-Venn degli insiemi dell’Esempio 2.1 è dato dai seguenti. 1. {bianco, rosso, verde}:

2. {1, −1, 2, 0}:

3. {1, 2, 3, . . . , n}:

c 2014 Gennaro Amendola

Versione 1.0

Diagramma di Eulero-Venn

Lezione 2. Insiemi

2–3

4. {1, 2, 3, . . .}: Il numero degli elementi di un insieme I è indicato con #I. Abbiamo che #I = 0 se e solo se I = ∅. Dal punto di vista del numero di elementi gli insiemi si dividono in due categorie. • Un insieme I è detto finito se ha un numero finito di elementi: abbiamo #I = n con n numero intero ◮.

#

◮ Non negativo.

• Un insieme I è detto infinito se ha un numero infinito di elementi: questo caso è indicato con #I = ∞.

Esempio 2.4. Il numero degli elementi degli insiemi dell’Esempio 2.1 è il seguente. 1. #{bianco, rosso, verde} = 3. 2. #{1, −1, 2, 0} = 4.

3. #{1, 2, 3, . . . , n} = n. ◮

◮ Se n = 0, l’insieme è vuoto e ha 0 elementi.

4. #{1, 2, 3, . . .} = ∞. Sottoinsieme Dato un insieme I, un insieme J è detto sottoinsieme di I se ogni elemento che appartiene a J appartiene anche a I: ciò è indicato con J ⊂I

oppure

oppure

⊂/⊃

I ⊃ J.

In tal caso diremo che I contiene J . Il contrario (ossia se I non contiene J ) è indicato con J 6⊂ I

Sottoinsieme

6⊂/6⊃

I 6⊃ J .

Qualsiasi sia l’insieme I, abbiamo ∅ ⊂ I. Due insiemi I1 e I2 coincidono se e solo se sono l’uno sottoinsieme dell’altro ◮. Esempio 2.5. 1. Abbiamo {bianco, verde} ⊂ {bianco, rosso, verde}, infatti abbiamo sia “bianco” ∈ {bianco, rosso, verde} che “verde” ∈ {bianco, rosso, verde} ◮. Al contrario, {bianco, rosso, verde} non contiene {bianco, verde, blu}, infatti abbiamo che “blu” non appartiene a {bianco, rosso, verde} ◮.

2. Abbiamo {1, −1, 2, 0} ⊃ {1, −1}, infatti abbiamo ±1 ∈ {1, −1, 2, 0}. Al contrario, {1, −2, −1} non è contenuto in {1, −1, 2, 0}, infatti abbiamo −2 6∈ {1, −1, 2, 0}.

◮ Ossia I1 ⊂ I2 e I2 ⊂ I1 .

◮ Ogni elemento del primo insieme appartiene anche al secondo. ◮ C’è un elemento del secondo insieme che non appartiene al primo.

3. Abbiamo {1, 2, 3, . . . , m} ⊂ {1, 2, 3, . . . , n} se e solo se m 6 n. Quindi {1, 2, 3, . . . , m} è uguale a {1, 2, 3, . . . , n} se e solo se m = n, infatti abbiamo la doppia inclusione {1, 2, 3, . . . , m} ⊂ {1, 2, 3, . . . , n} e {1, 2, 3, . . . , m} ⊃ {1, 2, 3, . . . , n} se e solo se m 6 n e n 6 m ◮. ◮ Abbiamo 4. Abbiamo {1, 2, 3, . . . , n} ⊂ {1, 2, 3, . . .} qualsiasi sia n. Invece, abbiamo {1, −1} 6⊂ {1, 2, 3, . . . , n}, infatti −1 6∈ {1, 2, 3, . . . , n}.

Un sottoinsieme di un insieme I è definito facilmente per caratteristica, anche perché in questo modo è chiaro che esso è un sottoinsieme di I: {x ∈ I | . . .}.

c 2014 Gennaro Amendola

Versione 1.0

n = m.

m 6 n e n 6 m, se e solo se

Lezione 2. Insiemi

2–4

Esempio 2.6. 1. Consideriamo l’Esempio 2.5-1: abbiamo l’insieme I = {bianco, rosso, verde} e un suo sottoinsieme, che possiamo definire per caratteristica {bianco, verde} = {c ∈ I | c non è “rosso”}. 2. Consideriamo l’Esempio 2.5-2: abbiamo l’insieme I = {1, −1, 2, 0} e un suo sottoinsieme, che possiamo definire per caratteristica {1, −1} = {x ∈ I | x è dispari}.

3. Consideriamo l’Esempio 2.5-3: fixed m 6 n, abbiamo l’insieme I(n) = {1, 2, 3, . . . , n} e un suo sottoinsieme, che possiamo definire per caratteristica {1, 2, 3, . . . , m} = {x ∈ I(n) | x 6 m}.

4. Consideriamo l’Esempio 2.5-4: fixed n, abbiamo l’insieme I = {1, 2, 3, . . .} e un suo sottoinsieme, che possiamo definire per caratteristica {1, 2, 3, . . . , n} = {x ∈ I | x 6 n}. 5. Fissato n > 4, se I = {1, 2, 3, . . . , n}, abbiamo che i due sottoinsiemi {x ∈ I | x > 2 e x = 6 n} e {3, 4, . . . , n − 1} sono uguali ◮.

Intersezione e unione L’intersezione di due insiemi I1 e I2 è

Intersezione ∩

I1 ∩ I2 := {x | x ∈ I1 e x ∈ I2 }.

Un elemento appartiene a I1 ∩ I2 se e solo se appartiene sia a I1 che a I2 .

In particolare, abbiamo

e

I1 ∩ I2 ⊂ I1

(2.1)

I1 ∩ I2 ⊂ I2 .

Due insiemi sono detti disgiunti se la loro intersezione è vuota. L’intersezione è generalizzata naturalmente a un qualsiasi numero di insiemi. L’unione di due insiemi I1 e I2 è I1 ∪ I2 := {x | x ∈ I1 o x ∈ I2 }.

In particolare, abbiamo

e

I1 ⊂ I1 ∪ I2

(2.2)

I2 ⊂ I1 ∪ I2 .

L’unione è generalizzata naturalmente a un qualsiasi numero di insiemi. Esempio 2.7.

1. Abbiamo

{bianco, rosso, verde} ∩ {bianco, verde, blu} = {bianco, verde},

{bianco, rosso, verde} ∪ {bianco, verde, blu} = {bianco, rosso, verde, blu}. 2. Abbiamo {1, −1, 2, 0} ∩ {1, 3, 4} = {1},

{1, −1, 2, 0} ∪ {1, 3, 4} = {1, −1, 0, 2, 3, 4}.

3. Dati n ed m numeri interi positivi, consideriamo i due insiemi {1, 2, . . . , n} e {m, m + 1, . . .}. La loro intersezione è • ∅ if n < m, • {m, m + 1, . . . , n} se n > m.

La loro unione è

• {1, 2, . . . , n, m, m + 1, . . .} se n < m, • {1, 2, . . .} se n > m.

c 2014 Gennaro Amendola

◮ Infatti abbiamo la doppia inclusione {x ∈ I | x > 2 e x 6= n} ⊂ {3, 4, . . . , n − 1} e {3, 4, . . . , n − 1} ⊂ {x ∈ I | x > 2 e x 6= n}.

Versione 1.0

I1

I2

Insiemi disgiunti Unione ∪

Un elemento appartiene a I1 ∪ I2 se e solo se appartiene a I1 oppure a I2 . I1

I2

Lezione 2. Insiemi

2–5

Osservazione 2.8. Siano I1 e I2 due insiemi finiti, e siano m1 = #I1 e m2 = #I1 . Allora abbiamo #I1 + #I2 = # (I1 ∪ I2 ) + # (I1 ∩ I2 ) .

Infatti, se contiamo gli elementi di I1 ∪ I2 sommando il numero degli elementi di I1 e I2 , contiamo due volte gli elementi di I1 ∩ I2 .

Esempio 2.9.

1. Consideriamo l’Esempio 2.7-1: abbiamo ◮

◮ 3 + 3 = 4 + 2.

#{bianco, rosso, verde}+#{bianco, verde, blu} = #{bianco, rosso, verde, blu}+#{bianco, verde}. 2. Consideriamo l’Esempio 2.7-2: abbiamo ◮

◮ 4 + 3 = 6 + 1.

#{1, −1, 2, 0} + #{1, 3, 4} = #{1, −1, 0, 2, 3, 4} + #{1}. Complemento relativo un insieme I è l’insieme

Il complemento relativo di un insieme J in

Complemento relativo \

I \ J = {x ∈ I | x 6∈ J }.

I

Esempio 2.10. 1. Il complemento relativo dell’insieme {bianco, verde, blu} nell’insieme {bianco, rosso, verde} è l’insieme

J

Un elemento appartiene a I \ J se e solo se appartiene a I e non a J .

{bianco, rosso, verde} \ {bianco, verde, blu} = {rosso}.

Notiamo che il complemento relativo di I in J è diverso dal complemento relativo di J in I, come mostrato nell’esempio sotto.

Il complemento relativo dell’insieme {bianco, rosso, verde} nell’insieme {bianco, verde, blu} è l’insieme {bianco, verde, blu} \ {bianco, rosso, verde} = {blu}.

2. Il complemento relativo dell’insieme {1, 3, 4} nell’insieme {1, −1, 2, 0} è l’insieme {1, −1, 2, 0} \ {1, 3, 4} = {−1, 2, 0}. Il complemento relativo dell’insieme {1, −1, 2, 0} nell’insieme {1, 3, 4} è l’insieme {1, 3, 4} \ {1, −1, 2, 0} = {3, 4}. Insiemi numerici Gli insiemi numerici sono particolari insiemi: • l’insieme N = {0, 1, 2, 3, . . .} dei numeri naturali;

• l’insieme Z = {. . . , −3, −2, −1, 0, 1, 2, 3, . . .} dei numeri interi;  • l’insieme Q = n n ∈ Z, m ∈ N \ {0} dei numeri razionali ◮; m

• l’insieme R dei numeri reali, ossia l’estensione dei numeri razionali considerando anche “numeri che possono essere approssimanti con numeri razionali” (i numeri reali che non sono razionali sono detti ◮; irrazionali) ◮ • l’insieme C = {a + bi | a, b ∈ R} dei numeri complessi, dove i = √ ◮ −1. ◮ ◮ Consideriamo questi insiemi come contenuti ciascuno nel successivo: ◮ N ⊂ Z ⊂ Q ⊂ R ⊂ C. c 2014 Gennaro Amendola

Versione 1.0

Insieme numerico

◮ Per essere precisi, bisogna stare attenti alle 6 = 52 ), ma non ripetizioni (ad esempio, 10 appesantiremo la trattazione. ◮ ◮ La definizione dei numeri reali è non banale, ma l’idea è proprio quella di considerare gli altri numeri che hanno uno sviluppo decimale, e quindi possono essere approssimati con numeri razionali, co√ me 2 = 1, 41421 . . . , π = 3, 14159 . . . , e = 2, 71828 . . . . ◮ ◮ Nessun numero reale può essere la radice ◮ quadrata di un numero negativo, quindi i 6∈ R.

◮ In realtà, rigorosamente parlando, questi insiemi, per come sono stati introdotti sopra, non sono contenuti in quelli successivi. Per esempio, il numero intero 3 non è una frazione; tra le frazioni però c’è 13 che è pensata uguale al numero intero 3, anche se sono due oggetti diversi.

Lezione 2. Insiemi

2–6

Per non appesantire la trattazione, nel seguito useremo il termine numero senza essere più precisi. Quando faremo operazioni tra i numeri, considereremo implicitamente solo i numeri su cui quelle operazioni possono essere fatte: ad esempio, se faremo sottrazioni, supporremo di avere numeri in Z, Q, . . . , e non in N. Inoltre tutto ciò che diremo può essere automaticamente esteso a tutti gli insiemi (non ancora definiti) su cui operazioni analoghe possono essere definite. Prodotto cartesiano l’insieme

Il prodotto cartesiano di due insiemi I1 e I2 ◮ è

I1 × I2 := {(x1 , x2 ) | x1 ∈ I1 , x2 ∈ I2 }

formato dalle coppie ordinate di elementi, il primo di I1 e il secondo di I2 . Se I1 e I2 sono lo stesso insieme (chiamiamolo semplicemente I) usiamo la notazione

Prodotto cartesiano ◮ Può succedere che I1 e I2 non siano insiemi diversi: è contemplato anche il caso in cui I1 = I2 (in effetti, ciò succede spesso).

×

I 2 := I × I.

Possiamo fare prodotti cartesiani in successione: ad esempio, dati tre insiemi I1 , I2 e I3 , possiamo fare prima il prodotto cartesiano di I1 e I2 , e poi di quello che abbiamo ottenuto e I3 , ossia o n  (I1 × I2 ) × I3 = (x1 , x2 ) , x3 x1 ∈ I1 , x2 ∈ I2 , x3 ∈ I3 .

Potremmo anche fare il contrario: prima il prodotto cartesiano di I2 e I3 , e poi di I1 e quello che abbiamo ottenuto, ossia n o  I1 × (I2 × I3 ) = x1 , (x2 , x3 ) x1 ∈ I1 , x2 ∈ I2 , x3 ∈ I3 .

I due insiemi sono diversi, ma in pratica si comportano allo stesso modo, quindi li considereremo uguali; li indicheremo entrambi con

Gli elementi dell’insieme I1 × I2 × I3 sono terne ordinate.

I1 × I2 × I3 ,

e indicheremo i loro elementi con (x1 , x2 , x3 ), con x1 ∈ I1 , x2 ∈ I2 e x3 ∈ I3 . Se I1 , I2 e I3 sono lo stesso insieme (chiamiamolo semplicemente I) usiamo la notazione I 3 := I × I × I.

Ciò può essere generalizzato a un numero qualsiasi di insiemi: n elementi

n insiemi }| { z z }| { (x1 , x2 , . . . , xn ) ∈ I1 × I2 × · · · × In n volte

con xi ∈ Ii per i = 1, 2, . . . , n,

Ogni elemento dell’insieme I1 × I2 × · · · × In è detto n-upla (si legge “enne-upla” o “ennupla”): ad esempio, se n = 4 abbiamo “quattro-uple”, se n = 5 abbiamo “cinqueuple”, e così via.

z }| { I := I × I × · · · × I . n

Esempio 2.11. 1. Il prodotto cartesiano {bianco, rosso, verde}×{1, −1, 2, 0} dei due insiemi degli Esempi 2.1-1 e 2.1-2 ◮ è {(x, y) | x è un colore della bandiera italiana e y è un numero intero compreso tra −1 e 2} =  ◮ La rappresentazione per = (bianco, 1), (bianco, −1), (bianco, 2), (bianco, 0),

caratteristica dei due insiemi è descritta negli Esempi 2.2-1 e 2.2-2.

(rosso, 1), (rosso, −1), (rosso, 2), (rosso, 0),

(verde, 1), (verde, −1), (verde, 2), (verde, 0) ,

che è formato da 3 · 4 = 12 elementi. c 2014 Gennaro Amendola

Versione 1.0

Lezione 2. Insiemi

2–7

2. L’insieme delle coppie di numeri naturali è N2 = N×N = {(x, y) | x, y ∈ N} = {(0, 0), (0, 1), (0, 2), . . . , (1, 0), (1, 1), (1, 2), . . . , (2, 0), (2, 1), (2, 2), . . . , . . .}. 3. L’insieme delle coppie di numeri reali è R2 = R × R = {(x, y) | x, y ∈ R}.   √ Ad esempio, abbiamo (0, 0), e3 , 12 , 2, −2π ∈ R × R.

4. L’insieme delle terne di numeri reali è

R3 = R × R × R = {(x, y, z) | x, y, z ∈ R}. √   √ Ad esempio, abbiamo (0, 0, 0), e3 , 12 , −1 , 2, −2, 7 11 ∈ R × R × R.

5. L’insieme delle n-uple di numeri reali è n times

}| { z R = R × R × · · · × R = {(x1 , x2 , . . . , xn ) | x1 , x2 , . . . , xn ∈ R}. n

n times

z }| {  Ad esempio, abbiamo (0, 0, . . . , 0), (1, 2, . . . , n), 2n π, 2n−1 π, . . . , 2π ∈ Rn . Somma di un numero e di un insieme Sia J un sottoinsieme di un insieme I su cui possiamo fare l’addizione, e sia x un elemento di I. La somma di x e dell’insieme J è l’insieme

Somma di un numero e di un insieme

x + J := {y ∈ I | y = x + z, con z ∈ J }.

Esempio 2.12. 1. La somma di 8 e dell’insieme {1, 3, 5} è 8+{1, 3, 5} = ◮ Infatti abbiamo ◮ {9, 11, 13}. 8 + 5 = 13. ◮ 2. La somma di 2 e dell’insieme {1, 3, 5} è 2 + {1, 3, 5} = {3, 5, 7}. ◮

◮ ◮ Infatti abbiamo 2+1 = 3, 2+3 = 5, 2+5 = 7.

3. La somma di 1 e dell’insieme {numeri interi pari} = {. . . , −4, −2, 0, 2, 4, . . .} è 1 + {numeri interi pari} = {numeri interi dispari}.

Cominciamo notando che {numeri interi pari} = {. . . , −4, −2, 0, 2, 4, . . .} e {numeri interi dispari} = {. . . , −3, −1, 1, 3, 5, . . .}. Se aggiungiamo 1 a un numero intero pari il risultato è un numero intero dispari, quindi 1 + {numeri interi pari} ⊂ {numeri interi dispari}.

Inoltre, per ogni numero intero dispari n, abbiamo che n − 1 è un numero intero pari e che 1 + (n − 1) = n, quindi 1 + {numeri interi pari} ⊃ {numeri interi dispari}.

c 2014 Gennaro Amendola

Versione 1.0

8 + 1 = 9, 8 + 3 = 11,

Lezione 2. Insiemi

2–8

Sessione di Studio 2.1 1 3 Esercizio elementi 1 2, 4 , − 2 , π appartiene all’insieme 2.1. Quale degli   1 2, π, 4 ? E all’insieme x ∈ Q − 2 < x 6 4 ?  Soluzione. L’insieme 2, π, 14 contiene gli elementi 2 e π, ma non 43 e − 12 .  L’insieme x ∈ Q − 21 < x 6 4 contiene gli elementi 2 e 34 . Esso non contiene − 21 perché − 21 non è strettamente maggiore di − 12 , né π perché π non è razionale.

Esercizio 2.2. Quali dei seguenti insiemi sono uguali? I1 = {−2, 0, 2, 3},

I2 = {0, 1, 2, 4},

I3 = {n ∈ N | n < 5, n 6= 3},

I4 = {k ∈ Z | −3 < k 6 3, k 2 6= 1}.

Soluzione. Gli insiemi I1 e I2 sono diversi, perché il primo non contiene 1. Abbiamo I3 = {0, 1, 2, 4}, perché i numeri naturali minori di 5 e diversi da 3 sono esattamente 0, 1, 2, 4, e quindi I2 = I3 . Abbiamo I4 = {−2, 0, 2, 3}, perché gli interi maggiori di −3, minori o uguali a 3, e diversi da ±1 ◮ sono esattamente −2, 0, 2, 3, e quindi I1 = I4 . Visto che I2 = I3 , I1 = I4 e I1 6= I2 , abbiamo I3 6= I4 .

◮ k 2 6= 1 è equivalente a k 6= 1, −1.

Esercizio 2.3. Quale dei due insiemi I = {−2, 0, 2, 4, 6} e J = {k ∈ Z | −3 < k < 7} è contenuto nell’altro? A seconda della risposta, scrivilo come I = {x ∈ J | . . .} o J = {x ∈ I | . . .}. Sono uguali I e J ?

Soluzione. Tutti gli elementi di I sono numeri interi maggiori di −3 e minori di 7, allora appartengono a J e quindi I ⊂ J . Possiamo scrivere I = {x ∈ J | x è pari}. I due insiemi sono diversi perché 1 appartiene a J e non a I. Quindi abbiamo J 6⊂ I. Esercizio 2.4. Quanti elementi hanno i seguenti insiemi? I1 = {−2, 0, 2, 3},

I2 = {0, 3, 6, 9, . . .},

Soluzione. Abbiamo #I1 = 4,

#I2 = ∞,

#I3 = 8,

I3 = {n ∈ N | n 6 8, n 6= 5},

I4 = {k ∈ Z | k < 3}.

#I4 = ∞.

I primi due sono ovvi. Riguardo I3 , abbiamo che l’insieme è {0, 1, 2, 3, 4, 6, 7, 8}, che ha 8 elementi. Riguardo I4 , abbiamo che l’insieme è {. . . , −2, −1, 0, 1, 2}, che ha infiniti elementi. √  Esercizio 2.5. Calcola l’intersezione e l’unione degli insiemi I = − 12 , −π, 2, −5, 53 e J = {x ∈ Q | x < 0}? Soluzione. Gli elementi di I che sono razionali e negativi sono − 21 e −5 ◮, gli altri sono irrazionali o positivi quindi non appartengono a J . Allora l’intersezione I ∩ J è   1 − , −5 , 2 e l’unione I ∪ J è   √ 3 {x ∈ Q | x < 0} ∪ −π, 2, . 5 c 2014 Gennaro Amendola

Versione 1.0

◮5 =

5 . 1

Lezione 2. Insiemi

2–9

Esercizio 2.6. Scrivi per elencazione l’insieme {3, 5, 7, 10}\{−2, 3, 8, 10, 11}.

Soluzione. Gli elementi che appartengono a {3, 5, 7, 10} e non a {−2, 3, 8, 10, 11} sono 5 e 7, quindi {3, 5, 7, 10} \ {−2, 3, 8, 10, 11} = {5, 7}. Esercizio 2.7. Scrivi per elencazione il prodotto cartesiano degli insiemi I = {3, 5} e J = {n ∈ Z | − 2 < n 6 1}?

Soluzione. Abbiamo J = {−1, 0, 1}, quindi il prodotto cartesiano I ×J è {(3, −1), (3, 0), (3, 1), (5, −1), (5, 0), (5, 1)}.

Esercizio 2.8. 2+{numeri interi positivi pari} è uguale a {numeri interi positivi pari}? Soluzione. Se aggiungiamo 2 a un numero intero positivo pari il risultato è un numero intero positivo pari, quindi 2+{2, 4, 6, . . .} ⊂ {2, 4, 6, . . .}. Inoltre, i numeri interi in {numeri interi positivi pari} cominciano da 2, quindi i numeri interi in 2 + {numeri interi positivi pari} cominciano da 4, e otteniamo 2 + {2, 4, 6, . . .} = {4, 6, 8, . . .}. Quindi i due insiemi 2 + {numeri interi positivi pari} e {numeri interi positivi pari} sono diversi perché il primo contiene 2 mentre il secondo no.

c 2014 Gennaro Amendola

Versione 1.0

Lezione 2. Insiemi

2–8

Sessione di Studio 2.1 1 3 Esercizio elementi 1 2, 4 , − 2 , π appartiene all’insieme 2.1. Quale degli   1 2, π, 4 ? E all’insieme x ∈ Q − 2 < x 6 4 ?  Soluzione. L’insieme 2, π, 14 contiene gli elementi 2 e π, ma non 43 e − 12 .  L’insieme x ∈ Q − 21 < x 6 4 contiene gli elementi 2 e 34 . Esso non contiene − 21 perché − 21 non è strettamente maggiore di − 12 , né π perché π non è razionale.

Esercizio 2.2. Quali dei seguenti insiemi sono uguali? I1 = {−2, 0, 2, 3},

I2 = {0, 1, 2, 4},

I3 = {n ∈ N | n < 5, n 6= 3},

I4 = {k ∈ Z | −3 < k 6 3, k 2 6= 1}.

Soluzione. Gli insiemi I1 e I2 sono diversi, perché il primo non contiene 1. Abbiamo I3 = {0, 1, 2, 4}, perché i numeri naturali minori di 5 e diversi da 3 sono esattamente 0, 1, 2, 4, e quindi I2 = I3 . Abbiamo I4 = {−2, 0, 2, 3}, perché gli interi maggiori di −3, minori o uguali a 3, e diversi da ±1 ◮ sono esattamente −2, 0, 2, 3, e quindi I1 = I4 . Visto che I2 = I3 , I1 = I4 e I1 6= I2 , abbiamo I3 6= I4 .

◮ k 2 6= 1 è equivalente a k 6= 1, −1.

Esercizio 2.3. Quale dei due insiemi I = {−2, 0, 2, 4, 6} e J = {k ∈ Z | −3 < k < 7} è contenuto nell’altro? A seconda della risposta, scrivilo come I = {x ∈ J | . . .} o J = {x ∈ I | . . .}. Sono uguali I e J ?

Soluzione. Tutti gli elementi di I sono numeri interi maggiori di −3 e minori di 7, allora appartengono a J e quindi I ⊂ J . Possiamo scrivere I = {x ∈ J | x è pari}. I due insiemi sono diversi perché 1 appartiene a J e non a I. Quindi abbiamo J 6⊂ I. Esercizio 2.4. Quanti elementi hanno i seguenti insiemi? I1 = {−2, 0, 2, 3},

I2 = {0, 3, 6, 9, . . .},

Soluzione. Abbiamo #I1 = 4,

#I2 = ∞,

#I3 = 8,

I3 = {n ∈ N | n 6 8, n 6= 5},

I4 = {k ∈ Z | k < 3}.

#I4 = ∞.

I primi due sono ovvi. Riguardo I3 , abbiamo che l’insieme è {0, 1, 2, 3, 4, 6, 7, 8}, che ha 8 elementi. Riguardo I4 , abbiamo che l’insieme è {. . . , −2, −1, 0, 1, 2}, che ha infiniti elementi. √  Esercizio 2.5. Calcola l’intersezione e l’unione degli insiemi I = − 12 , −π, 2, −5, 53 e J = {x ∈ Q | x < 0}? Soluzione. Gli elementi di I che sono razionali e negativi sono − 21 e −5 ◮, gli altri sono irrazionali o positivi quindi non appartengono a J . Allora l’intersezione I ∩ J è   1 − , −5 , 2 e l’unione I ∪ J è   √ 3 {x ∈ Q | x < 0} ∪ −π, 2, . 5 c 2014 Gennaro Amendola

Versione 1.0

◮5 =

5 . 1

Lezione 2. Insiemi

2–9

Esercizio 2.6. Scrivi per elencazione l’insieme {3, 5, 7, 10}\{−2, 3, 8, 10, 11}.

Soluzione. Gli elementi che appartengono a {3, 5, 7, 10} e non a {−2, 3, 8, 10, 11} sono 5 e 7, quindi {3, 5, 7, 10} \ {−2, 3, 8, 10, 11} = {5, 7}. Esercizio 2.7. Scrivi per elencazione il prodotto cartesiano degli insiemi I = {3, 5} e J = {n ∈ Z | − 2 < n 6 1}?

Soluzione. Abbiamo J = {−1, 0, 1}, quindi il prodotto cartesiano I ×J è {(3, −1), (3, 0), (3, 1), (5, −1), (5, 0), (5, 1)}.

Esercizio 2.8. 2+{numeri interi positivi pari} è uguale a {numeri interi positivi pari}? Soluzione. Se aggiungiamo 2 a un numero intero positivo pari il risultato è un numero intero positivo pari, quindi 2+{2, 4, 6, . . .} ⊂ {2, 4, 6, . . .}. Inoltre, i numeri interi in {numeri interi positivi pari} cominciano da 2, quindi i numeri interi in 2 + {numeri interi positivi pari} cominciano da 4, e otteniamo 2 + {2, 4, 6, . . .} = {4, 6, 8, . . .}. Quindi i due insiemi 2 + {numeri interi positivi pari} e {numeri interi positivi pari} sono diversi perché il primo contiene 2 mentre il secondo no.

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 2/S2 Insiemi 1

Sessione di Studio 2.2 Insiemi

Lezione 2. Insiemi

2–10

Sessione di Studio 2.2 Esercizio 2.9. Quale dei due insiemi I = {x ∈ Q | x2 6= 4} e J = {x ∈ Q | x 6= 2} è contenuto nell’altro? A seconda della risposta, scrivilo come I = {x ∈ J | . . .} o J = {x ∈ I | . . .}. Sono uguali I e J ?

Esercizio 2.10. 1. Calcola l’intersezione e l’unione degli insiemi I = {2, 4, 6} e J = {1, 3, 5, 7}. Calcola il complemento relativo di I in J , e il complemento relativo di J in I. Quanti elementi hanno gli insiemi I, J , I ∩ J e I ∪ J ? 2. Calcola l’intersezione e l’unione degli insiemi I = {0, 2, 4, 6, 8} e J = {n ∈ N | n è pari}. Calcola il complemento relativo di I in J , e il complemento relativo di J in I. Quanti elementi hanno gli insiemi I, J , I ∩ J e I ∪ J ?

Esercizio 2.11. Scrivi per elencazione il prodotto cartesiano degli insiemi I = {0, 1},

J = {−2, −1}

e K = {π, e}.

Esercizio 2.12. Scrivi, per caratteristica e per elencazione, l’insieme 2 + {numeri interi pari}.

c 2014 Gennaro Amendola

Versione 1.0

Lezione 2. Insiemi

2–11

Risultato dell’Esercizio 2.9. I ⊂ J . ◮ I = {x ∈ J | x 6= −2}. I = 6 J (J 6⊂ I).

◮ Nota che chiedere x2 6= 4 è equivalente a chiedere x 6= ±2.

Risultato dell’Esercizio 2.10. 1. I∩J = ∅. I∪J = {1, 2, 3, 4, 5, 6, 7}. I \ J = ∅. J \ I = ∅. #I = 3, #J = 4, #I ∩ J = 0, #I ∪ J = 7. 2. I ∩ J = {0, 2, 4, 6, 8}. I ∪ J = {n ∈ N | n è pari}. I \ J = ∅. J \I = {n ∈ N | n è pari, n > 10}. #I = 5, #J = ∞, #I ∩J = 5, #I ∪ J = ∞.

Risultato dell’Esercizio 2.11.

{(0, −2, π), (0, −2, e), (0, −1, π), (0, −1, e), (1, −2, π), (1, −2, e), (1, −1, π), (1, −1, e)}. Risultato dell’Esercizio 2.12. 2+{numeri interi pari} = {numeri interi pari} = {. . . , −4, −2, 0, 2, 4, . . .}.

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE COMPLEMENTI DI MATEMATICA 2/S3 Insiemi 1

Sessione di Studio 2.3 Insiemi

2010

Lezione 2. Insiemi

2–12

Sessione di Studio 2.3 Letture supplementari possono essere le seguenti: • http://it.wikipedia.org/wiki/Insieme

c 2014 Gennaro Amendola

Versione 1.0

Lezione 2. Insiemi

2–13

Sessione di Studio 2.Quiz Seguirà un quiz, le cui domande sono le seguenti, per controllare il livello di approfondimento degli argomenti studiati: assicurati di avere a disposizione queste domande quando farai il quiz. L’esito del quiz non sarà tenuto in considerazione per l’esame. Dopo aver svolto il quiz ricontrolla le domande, specialmente quelle a cui non hai risposto in maniera corretta. Per ognuna delle seguenti domande, la risposta esatta è una sola. Domanda 2.1. Quale dei seguenti elementi appartiene all’insieme I = {n ∈ N | n > 2}? (a) 83 . (b) 10. (c) 1. (d) 2. Domanda 2.2. Quale dei seguenti insiemi definiti per elencazione coincide con l’insieme I = {n ∈ Z | − 3 6 n < 2, n 6= 0} definito per caratteristica? (a) {−3, 2}. (b) {−3, −2, −1, 1}. (c) {−3, −2, 0, −1, 1}. (d) {−3, 1}. Domanda 2.3. Quale dei seguenti insiemi definiti per caratteristica coincide con l’insieme I = {−3, 0, 3} definito per elencazione? (a) {x ∈ R | x2 = 9 oppure x2 = 0}. (b) {x ∈ R | x2 = 9}. (c) {x ∈ N | x2 = 9 oppure x2 = 0}. (d) {x ∈ R | − 3 6 x 6 3}. Domanda 2.4. Quale dei seguenti insiemi è infinito? (a) {n ∈ N | n < 4}. (b) {n ∈ Z | n < 4}. (c) {n ∈ Z | − 8 < n < 4}. (d) {2, 3, 4, . . . , 15}. Domanda 2.5. Quale delle seguenti inclusioni è vera? (a) {n ∈ Z | − 5 < n < −1} ⊂ {−3, −2, −1, . . . , 5}. (b) {n ∈ Z | − 5 < n < −1} ⊂ {−4, −3, −2, . . . , 5}. (c) {x ∈ R | − 5 < x < −1} ⊂ {−4, −3, −2, . . . , 5}. (d) {n ∈ N | 5 < n < 7} ⊂ {5, 7}.

c 2014 Gennaro Amendola

Versione 1.0

Lezione 2. Insiemi

2–14

Domanda 2.6. Sapendo che #I1 = 3, #I2 = 4, # (I1 ∩ I2 ) = 2, quanti elementi ha # (I1 ∪ I2 )? (a) 3. (b) 4. (c) 5. (d) 7. Domanda 2.7. Quale dei seguenti numeri è razionale? √ (a) 2. (b) π. (c) 2. (d) e. Domanda 2.8. Quale dei seguenti numeri è reale? (a) 2 − 2i. (b) 2 − i. (c) 2 + 0i. (d) 2 + i. Domanda 2.9. Quale dei seguenti insiemi definiti per elencazione coincide con l’insieme I = {0, 1}3 ? (a) {(0, 0, 0), (0, 0, 1), (0, 1, 0), (0, 1, 1), (1, 0, 0), (1, 0, 1), (1, 1, 0), (1, 1, 1)}. (b) {(0, 0, 0), (0, 0, 1), (0, 1, 0), (0, 1, 1)}. (c) {(0, 0, 0), (1, 1, 1)}. (d) {(0, 0, 0), (0, 0, 1), (0, 1, 0), (1, 0, 0)}. Domanda 2.10. Quale dei seguenti insiemi definiti per elencazione coincide con l’insieme I = 3 + {1, 2, π}? (a) {4, 5, 3 + π}. (b) {4, 2, π}. (c) {4, 8, 9 + π}. (d) {3, 6, 3π}.

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE COMPLEMENTI DI MATEMATICA 3 Logica 1

Lezione 3 Logica

2010

Lezione 3

Logica In questa lezione rivedremo brevemente alcune nozioni di base di logica. Esse sono fondamentali per ciò che faremo in seguito, sia per i concetti (che sono la base per i concetti futuri) che per l’introduzione del linguaggio matematico (che useremo nelle altre lezioni).

3.1

Logica

Proposizione Diciamo che P è una proposizione se essa può essere solo o vera o falsa, anche se non sappiamo se è vera o falsa. Esempio 3.1. 1. “Tutti gli uomini sono animali” è una proposizione vera. “C’è un uomo che non è un animale” è una proposizione falsa. 2. “Tutte le donne bionde hanno gli occhi verdi” è una proposizione falsa. “C’è una donna bionda che ha gli occhi azzurri” è una proposizione vera.

Proposizione Il fatto che una proposizione può essere solo o vera o falsa è detto principio di bivalenza. Ci sono situazioni in cui non è soddisfatto, ma per noi sarà sempre soddisfatto.

3. “4 è un numero intero pari” è una proposizione vera. “4 è un numero intero dispari” è una proposizione falsa. 4. “Il latte è scaduto?” oppure “A che ora arrivi?” non sono proposizioni: sono domande. Ad esse si può rispondere con proposizioni: “Il latte è scaduto” oppure “Il latte non è scaduto”, “Arriverò alle 10” o “Arriverò alle 11”. Anche la risposta “Non lo so” è una proposizione perché è vera (se non lo so) o è falsa (se lo so). Spesso le proposizioni possono essere riscritte in modo compatto usando gli insiemi. Esempio 3.2. 1. Le proposizioni dell’Esempio 3.1-1 possono essere riscritte usando gli insiemi, rispettivamente, come “{uomini} ⊂ {animali}” e “{uomini} 6⊂ {animali}”. 2. Le proposizioni dell’Esempio 3.1-2 possono essere riscritte usando gli insiemi, rispettivamente, come “{donne bionde} ⊂ {donne con gli occhi verdi}” e “{donne bionde} ∩ {donne con gli occhi azzurri} = 6 ∅”. 3. Le proposizioni dell’Esempio 3.1-3 possono essere riscritte usando gli insiemi, rispettivamente, come “4 ∈ {m ∈ Z | m è pari}” e “4 ∈ {m ∈ Z | m è dispari}”.

c 2014 Gennaro Amendola

Versione 1.0

La prima proposizione è vera, la seconda è falsa, coerentemente con quanto detto nell’Esempio 3.1-1. La prima proposizione è falsa, la seconda è vera, coerentemente con quanto detto nell’Esempio 3.1-2.

La prima proposizione è vera, la seconda è falsa, coerentemente con quanto detto nell’Esempio 3.1-3.

Lezione 3. Logica

3–2

Quantificatori Per chiarire le proposizioni è comodo usare i quantificatori che hanno un ovvio significato: ∀ (per ogni)

e

Quantificatori

∃ (esiste/esistono).

La differenza tra i due quantificatori può essere pensata anche nel modo seguente. Supponiamo che io voglia convincere una persona. Se affermo che “esiste x per cui è soddisfatta una proprietà”, allora convinco la persona se io posso scegliere un x per cui è la proprietà soddisfatta. Se invece affermo che “per ogni x è soddisfatta una proprietà”, allora convinco la persona se qualunque x scelga la persona la proprietà è soddisfatta. Esempio 3.3. 1. Le proposizioni dell’Esempio 3.1-1 possono essere riscritte usando i quantificatori, rispettivamente, come “∀ x uomo, abbiamo che x è un animale” e “∃ x uomo tale che x non è un animale”.

La prima proposizione è vera, la seconda è falsa, coerentemente con quanto detto nell’Esempio 3.1-1.

2. Le proposizioni dell’Esempio 3.1-2 possono essere riscritte usando i quantificatori, rispettivamente, come “∀ x donna bionda, abbiamo che x ha gli occhi verdi” e “∃ x donna bionda tale che x ha gli occhi azzurri”.

La prima proposizione è falsa, la seconda è vera, coerentemente con quanto detto nell’Esempio 3.1-2.

3. Le proposizioni dell’Esempio 3.1-3 possono essere riscritte usando i quantificatori, rispettivamente, come “∃ k ∈ Z tale che 4 = 2k” e “∃ k ∈ Z tale che 4 = 2k + 1”.

La prima proposizione è vera, la seconda è falsa, coerentemente con quanto detto nell’Esempio 3.1-3.

Implicazione Consideriamo due proposizioni P e Q, e costruiamo una nuova proposizione detta “P implica Q” e indicata con P ⇒Q

oppure

Implicazione

Q ⇐ P,

equivalente a “se P è vera, anche Q è vera” oppure “se P è vera, allora/quindi Q è vera”. ◮ Abbiamo che • P è detta sufficiente per Q,

• Q è detta necessaria per P . ◮ Abbiamo che se P1 ⇒ P2 e P2 ⇒ P3 , allora P1 ⇒ P3 . ◮

Esempio 3.4. 1. La proposizione “il fatto che tutti gli uomini sono animali implica che mio padre è un animale” è vera, perché mio padre è un uomo e quindi, visto che tutti gli uomini sono animali, è un animale. Questa proposizione può essere riscritta come “se tutti gli uomini sono animali, allora mio padre è un animale”, oppure come tutti gli uomini sono animali

=⇒

◮ Il fatto che la proposizione P ⇒ Q sia vera non dice niente sul fatto che P e/o Q siano vere: dice solo che se P è vera allora anche Q è vera, ossia non può succedere che Q sia falsa quando P è vera, ma può succedere che P sia falsa. ◮ ◮ L’implicazione gode della proprietà transitiva, di cui parleremo in seguito.

mio padre è un animale.

2. La proposizione “il fatto che tutte le donne bionde hanno gli occhi verdi implica che mia madre (che è bionda) ha gli occhi verdi” è vera, perché mia madre è una donna bionda e quindi, visto che tutte le donne bionde hanno gli occhi verdi, ha gli occhi verdi. Questa proposizione può essere riscritta come “se tutte le donne bionde hanno gli occhi verdi, allora mia madre (che è bionda) ha gli occhi verdi”, oppure come tutte le donne bionde hanno gli occhi verdi c 2014 Gennaro Amendola

=⇒

mia madre (che è bionda) ha gli occhi verdi. Versione 1.0

Lezione 3. Logica

3–3

Abbiamo visto ◮ che la proposizione “tutte le donne bionde hanno gli occhi verdi” non è vera, quindi non sappiamo se mia mamma ha davvero gli occhi verdi ◮, però la proposizione “il fatto che tutte le donne bionde hanno gli occhi verdi implica che mia madre (che è bionda) ha gli occhi verdi” è vera. 3. La proposizione “se 4 è un numero intero pari, allora 5 è un numero intero dispari” è vera, ma anche la proposizione “se 4 è un numero intero dispari, allora 5 è un numero intero pari” è vera. ◮ 4. La proposizione “se finisco di lavorare entro le 20, compro il pane” può essere vera o falsa, ma non dice nulla sul fatto che io finisca di lavorare entro le 20, o meno. L’implicazione Q ⇒ P è detta l’implicazione inversa di P ⇒ Q. Le due implicazioni P ⇒ Q e Q ⇒ P non sono equivalenti: ci sono casi in cui è vera solo una delle due, casi in cui sono entrambe false, e casi in cui sono entrambe vere. Se sia P ⇒ Q che Q ⇒ P sono vere, si usa la notazione

◮ Esempio 3.1-2. ◮ Infatti ha gli occhi marroni.

◮ Infatti il numero intero successivo di un numero pari è dispari e il numero intero successivo di un numero dispari è pari.

Implicazione inversa

P ⇔Q:

essa è equivalente a “P è vera se e solo se Q è vera”. Esempio 3.5. 1. L’implicazione inversa dell’implicazione dell’Esempio 3.4-1 è “se mio padre è un animale, allora tutti gli uomini sono animali”, ossia mio padre è un animale

=⇒

tutti gli uomini sono animali.

Dal fatto che mio padre sia un animale non possiamo dedurre che tutti gli uomini lo siano. In realtà, sappiamo a priori che “tutti gli uomini sono animali” è vera, quindi la proposizione, che può essere riscritta come “mio padre è un animale” è vera

=⇒

“tutti gli uomini sono animali” è vera,

è vera. ◮ 2. L’implicazione inversa dell’implicazione “se sono malato, allora io vado dal dottore” è l’implicazione “se io vado dal dottore, io sono malato”. Entrambe le implicazioni sono false. Infatti a volte sono malato, ma non così tanto da andare dal dottore. Inoltre, vado dal dottore anche per avere certificati che sono sano. 3. Consideriamo le due implicazioni dell’Esempio 3.4-3. L’implicazione inversa della proposizione “se 4 è un numero intero pari, allora 5 è un numero intero dispari” è “se 5 è un numero intero dispari, allora 4 è un numero intero pari”, che è vera ◮; quindi abbiamo 4 è pari

⇐⇒

5 è dispari,

L’implicazione inversa della proposizione “se 4 è un numero intero dispari, allora 5 è un numero intero pari” è “se 5 è un numero intero pari, allora 4 è un numero intero dispari”, che è vera ◮; quindi abbiamo 5 è pari c 2014 Gennaro Amendola

⇐⇒

4 è dispari. Versione 1.0

◮ Questo però è un caso particolare, in cui la proposizione Q di P ⇒ Q è vera: comunque sia, in generale non è così.

◮ Infatti il numero intero precedente di un numero intero dispari è pari.

◮ Infatti il numero intero precedente di un numero intero pari è dispari.

Lezione 3. Logica

3–4

4. L’implicazione inversa della proposizione dell’Esempio 3.4-4 è “se compro il pane, finisco di lavorare entro le 20”. Anche se è vero che “se finisco di lavorare entro le 20, compro il pane”, non possiamo dire se è vera l’implicazione inversa: ad esempio, • posso comprare il pane anche se finisco di lavorare dopo le 20, nel qual caso la proposizione “se compro il pane, finisco di lavorare entro le 20” è falsa, • possono chiudere tutte le panetterie alle 20, quindi se finisco di lavorare dopo le 20 non posso comprare il pane, nel qual caso la proposizione “se compro il pane, finisco di lavorare entro le 20” è vera. Negazione La negazione di una proposizione P è la proposizione nonP che è vera se P è falsa ed è falsa se P è vera. Quindi abbiamo che tra le due proposizioni P e nonP ce n’è una vera ed una falsa. Negando una proposizione due volte si ottiene la proposizione di partenza, ossia non(nonP ) = P . Esempio 3.6. 1. Le proposizioni dell’Esempio 3.1-1 sono l’una la negazione dell’altra, infatti negare che tutti gli uomini sono animali consiste nell’affermare che c’è un uomo che non è un animale, e viceversa. ◮ 2. Anche se una delle due proposizioni dell’Esempio 3.1-2 è vera e l’altra è falsa, esse non sono l’una la negazione dell’altra, infatti la negazione di “tutte le donne bionde hanno gli occhi verdi” è “c’è una donna bionda che non ha gli occhi verdi”. ◮ La proposizione “c’è una donna bionda che ha gli occhi azzurri” implica che “c’è ◮ e quindi implica la una donna bionda che non ha gli occhi verdi” ◮ negazione di “tutte le donne bionde hanno gli occhi verdi”. 3. Le proposizioni dell’Esempio 3.1-3 sono l’una la negazione del◮ l’altra ◮ ◮, infatti negare che 4 è un numero intero pari consiste nell’affermare che 4 è un numero intero dispari, e viceversa. ◮ Per negare una proposizione è comodo usare i quantificatori: • ogni ∀ diventa ∃, e viceversa;

• si nega la condizione adatta – – – – –

◮ Una delle due proposizioni è vera (la prima), l’altra è falsa (la seconda).

◮ Una delle due proposizioni è vera (“c’è una donna bionda che non ha gli occhi verdi”), l’altra è falsa (“tutte le donne bionde hanno gli occhi verdi”). ◮ ◮ Ma non è equivalente, perché il colore degli occhi della donna bionda nella negazione della proposizione “tutte le donne bionde hanno gli occhi verdi” può non essere l’azzurro. ◮ ◮ ◮ Una delle due proposizioni è vera (la prima), l’altra è falsa (la seconda). ◮ Un numero intero o è pari o è dispari, e i due casi si escludono a vicenda.

Negare una proposizione può non essere semplice.

scambiando ∈ e 6∈, scambiando = e 6=, scambiando < e >, scambiando > e 6, introducendo o rimuovendo una negazione,

a seconda dei casi. Sostituire un ∀ con un ∃ in una proposizione P significa che bisogna trovare un elemento tale che la negazione è vera: un tale elemento è detto controesempio alla proposizione P . Esempio 3.7. 1. Le proposizioni dell’Esempio 3.3-1 sono l’una la negazione dell’altra, infatti abbiamo c 2014 Gennaro Amendola

Negazione

Versione 1.0

Controesempio

Lezione 3. Logica

3–5

∀ x uomo, x è un animale l l ∃ x uomo, x non è un animale.

L’uomo che non è un animale sarebbe un controesempio alla proposizione “Tutti gli uomini sono animali”. ◮ 2. Le negazioni delle due proposizioni dell’Esempio 3.3-2 si ottengono come segue:

◮ Non c’è un tale controesempio, infatti la proposizione “Tutti gli uomini sono animali” è vera, e “C’è un uomo che non è un animale” è falsa.

∀ x donna bionda, x ha gli occhi verdi l l ∃ x donna bionda, x non ha gli occhi verdi; ∃ x donna bionda, x ha gli occhi azzurri l l ∀ x donna bionda, x non ha gli occhi azzurri.

La donna che non ha gli occhi verdi (mia madre) è un controesempio alla proposizione “tutte le donne bionde hanno gli occhi verdi”. ◮ 3. Le negazioni delle due proposizioni dell’Esempio 3.3-3 si ottengono come segue: ∃ k ∈ Z, 4=2k l l ∀ k ∈ Z, 46=2k; ∃ k ∈ Z, 4=2k + 1 l l ∀ k ∈ Z, 46=2k + 1.

Il numero intero k tale che 4 = 2k è un controesempio alla proposizione “∀ k ∈ Z abbiamo 4 6= 2k”. ◮

Se la proposizione è semplice, possiamo utilizzare il quantificatore ∄ (non esiste).

Esempio 3.8. Neghiamo le proposizioni dell’Esempio 3.7 che contengono “∃”. 1. Scambiamo ∃ e ∄: ∃ x uomo, x non è un animale l ∄ x uomo, x non è un animale. 2. Scambiamo ∃ e ∄: ∃ x donna bionda, x non ha gli occhi verdi l ∄ x donna bionda, x non ha gli occhi verdi; ∃ x donna bionda, x l ∄ x donna bionda, x

ha gli occhi azzurri ha gli occhi azzurri.

3. Scambiamo ∃ e ∄: c 2014 Gennaro Amendola

Versione 1.0

◮ Infatti la proposizione “Tutte le donne bionde hanno gli occhi verdi” è falsa, e “c’è una donna bionda che non ha gli occhi verdi” è vera.

Nell’Esempio 3.6-3 abbiamo visto che le due proposizioni “4 è un numero intero pari” e “4 è un numero intero dispari” sono l’una la negazione dell’altra, ma abbiamo usato il fatto che un numero intero o è pari o è dispari, e che i due casi si escludono a vicenda. Se non usiamo questo fatto, possiamo solo costruire le due negazioni come descritto sopra.

◮ Infatti la proposizione “∀ k ∈ Z abbiamo 4 6= 2k” è falsa, e “∃ k ∈ Z tale che 4 = 2k” è vera.

Lezione 3. Logica

3–6

∃ k ∈ Z, 4=2k l l ∄ k ∈ Z, 4=2k; ∃ k ∈ Z, 4=2k + 1 l l ∄ k ∈ Z, 4=2k + 1.

Osservazione 3.9. L’implicazione P ⇒ Q è equivalente a nonP ⇐ nonQ. L’implicazione nonP ⇐ nonQ è detta contronominale di P ⇒ Q.

Contronominale

Esempio 3.10. Consideriamo le proposizioni dell’Esempio 3.4. 1. Le due proposizioni seguenti sono equivalenti:

tutti gli uomini sono animali =⇒ mio padre è un animale c’è un uomo che non è un ⇐= mio padre non è un animale animale 2. Le due proposizioni seguenti sono equivalenti: mia madre (che è bionda) ha tutte le donne bionde hanno =⇒ gli occhi verdi gli occhi verdi mia madre (che è bionda) c’è una donna bionda che ⇐= non ha gli occhi verdi non ha gli occhi verdi 3. Le due proposizioni seguenti sono equivalenti: 4 è un numero intero pari

=⇒ 5 è un numero intero dispari 5 non è un numero intero 4 non è un numero intero pari ⇐= dispari 4. Le due proposizioni seguenti sono equivalenti: finisco di lavorare entro le 20 =⇒ compro il pane non finisco di lavorare entro ⇐= non compro il pane le 20 Bisogna fare attenzione a non confondere la contronominale nonP ⇐ nonQ con l’implicazione inversa P ⇐ Q. ◮ Esempio 3.11. Consideriamo le implicazioni inverse e le contronominali dell’Esempio 3.4. 1. Le due proposizioni seguenti non sono equivalenti: tutti gli uomini sono animali ⇐= mio padre è un animale c’è un uomo che non è un ⇐= mio padre non è un animale animale 2. Le due proposizioni seguenti non sono equivalenti: mia madre (che è bionda) ha tutte le donne bionde hanno ⇐= gli occhi verdi gli occhi verdi c’è una donna bionda che mia madre (che è bionda) ⇐= non ha gli occhi verdi non ha gli occhi verdi 3. Le due proposizioni seguenti non sono equivalenti:

c 2014 Gennaro Amendola

Versione 1.0

◮ L’implicazione inversa di P ⇒ Q non è equivalente a P ⇒ Q.

Lezione 3. Logica

3–7

4 è un numero intero pari

⇐= 5 è un numero intero dispari 5 non è un numero intero 4 non è un numero intero pari ⇐= dispari 4. Le due proposizioni seguenti non sono equivalenti: finisco di lavorare entro le 20 ⇐= compro il pane non finisco di lavorare entro ⇐= non compro il pane le 20 Teoremi Un teorema è una proposizione vera della forma P ⇒ Q. La proposizione P ⇒ Q (a prescindere dal fatto che sia vera o no) è detta enunciato del teorema. Un teorema è formato da tre parti: • l’ipotesi, ossia P ;

Teorema Per essere un teorema, la proposizione P ⇒ Q deve essere vera.

• la tesi, ossia Q;

• la dimostrazione, ossia una successione di proposizioni che assicurano che l’enunciato è vero. Solitamente vengono chiamati teoremi solo le proposizioni più importanti. Se la proposizione è meno importante, si usa chiamarla semplicemente proposizione. Se la proposizione viene solamente utilizzata per dimostrare in seguito un teorema, si usa chiamarla lemma. Se la proposizione è una conseguenza semplice di un teorema si usa chiamarla corollario. Ci sono tre tipi di dimostrazioni: • La dimostrazione costruttiva consiste in una successione di implicazioni concatenate che comincia con P ⇒ . . . e finisce con . . . ⇒ Q. • La dimostrazione per assurdo consiste nel dimostrare la proposizione nonQ ⇒ nonP , che è equivalente all’enunciato. Invece di dimostrare nonP , è anche possibile trovare la negazione di una verità diversa da P , ossia di una ipotesi “nascosta” che sappiamo che è vera: l’assurdo è proprio la dimostrazione di una proprietà falsa che invece sappiamo essere vera (o viceversa).

• La dimostrazione per induzione ◮ si può usare se la tesi e/o l’ipotesi dipendono da un parametro intero n ∈ {n ∈ N | n > n0 } con n0 ∈ N, ossia abbiamo P (n) ⇒ Q(n), e consiste di due passi: – caso base: dimostrare P (n0 ) ⇒ Q (n0 ); ◮ dimostrare – passo induttivo: ◮   ∀ n > n0 si ha P (n) ⇒ Q(n) ⇒ P (n+1) ⇒ Q(n+1) . La proprietà P (n) ⇒ Q(n) che è supposta vera nel passo induttivo è detta ipotesi induttiva.

Vediamo ora come esempio una proposizione, di cui daremo tre dimostrazioni: una per ogni tipo. L’idea che sta dietro alle tre dimostrazioni è essenzialmente la stessa, ma formalmente le dimostrazioni sono diverse. Proposizione 3.12. Sia n ∈ N pari. Allora, 4n è divisibile per 8.

c 2014 Gennaro Amendola

Versione 1.0

Cambiamo il nome, ma il concetto è lo stesso: possono essere pensati tutti come sinonimi di “teorema”.

◮ L’idea è la stessa del domino: per far cadere tutte le tessere, facciamo cadere la prima (caso base) e poi le altre cadono in successione, perché sono state organizzate in modo che ognuna, se cade (ipotesi induttiva), fa cadere la successiva (passo induttivo). Più precisamente, P (0) ⇒ Q(0) è vera per il caso base; P (1) ⇒ Q(1) è vera per il passo induttivo con n = 0 e per il fatto che P (0) ⇒ Q(0) è vera; P (2) ⇒ Q(2) è vera per il passo induttivo con n = 1 e per il fatto che P (1) ⇒ Q(1) è vera; P (3) ⇒ Q(3) è vera per il passo induttivo con n = 2 e per il fatto che P (2) ⇒ Q(2) è vera; e così via. ◮ ◮ Nel passo induttivo, l’enunciato con parametro n è considerato essere l’ipotesi (infatti esso è detto ipotesi induttiva), ossia è supposto vero, e l’enunciato con parametro n + 1 è considerato essere la tesi.

L’ipotesi è che n è un numero naturale pari. La tesi è che 4n è divisibile per 8.

Lezione 3. Logica

3–8

Dimostrazione. Dimostriamo l’enunciato in maniera costruttiva. Visto che n è pari, abbiamo n = 2k con k ∈ N ◮. Allora abbiamo 4n = 4(2k) = ◮ ◮, ossia 4n è divisibile per 8 ◮ 8k ◮ ◮.

Dimostrazione. Dimostriamo l’enunciato per assurdo. Supponiamo per assurdo che 4n non sia divisibile per 8. Allora la decomposizione di 4n in numeri primi è della forma 2α1 3α2 5α3 · · · pαh h con α1 < 3 ◮. Visto che 4n è divisibile per 4, abbiamo α1 = 2, ossia 4n = 22 3α2 5α3 · · · pαh h . Allora abbiamo n = 3α2 5α3 · · · pαh h , che è dispari. Abbiamo ottenuto un assurdo: n è pari per ipotesi.

Dimostrazione di “n ∈ N è pari ⇒ 4n è divisibile per 8”. ◮ n è pari ⇒ n = 2k con k ∈ N.

◮ ◮ n = 2k con k ∈ N ⇒ 4n = 4(2k) = 8k. ◮ ◮ ◮ 4n = 8k con k ∈ N ⇒ 4n è divisibile per 8.

Dimostrazione di “4n non è divisibile per 8 ⇒ n ∈ N non è pari”.

Utilizziamo il Teorema fondamentale dell’aritmetica: “Ogni numero naturale maggiore di 1 si può esprimere come prodotto di numeri primi (se il numero è primo stipuliamo che il prodotto è formato da un solo numero); tale decomposizione è unica, a meno dell’ordine in cui compaiono i fattori.”

◮ 8 = 23 .

Dimostrazione. Visto che n è pari se e solo se n = 2k con k ∈ N, possiamo dimostrare la proposizione equivalente k ∈ N ⇒ 4(2k) è divisibile per 8. Dimostriamo l’enunciato per induzione su k. Caso base. Per k = 0 abbiamo 4 · (2 · 0) = 0, e 0 è divisibile per 8 ◮. Passo induttivo. Supponiamo che sia vero che per k ∈ N abbiamo che 4(2k) è divisibile per 8; dimostriamo che per k+1 abbiamo che 4(2(k+1)) è divisibile per 8. Abbiamo 4(2(k + 1)) = 4(2k + 2) = 4(2k) + 8. Per l’ipotesi induttiva ◮ abbiamo che 4(2k) è divisibile per 8. Se sommiamo 8 a un numero divisibile per 8, otteniamo un altro numero divisibile per 8 ◮, quindi 4(2k) + 8 è divisibile per 8: la dimostrazione è completa. ◮ . Dato Dimostriamo che ci sono numeri reali che non sono razionali ◮ a ∈ R non negativo, c’è un unico numero reale non negativo x tale che x2 = a. Esso è detto radice quadrata principale di a ed è indicato con √ a. √ 2 ◮ C’è un solo altro numero √ √tale che x = a, che è − a ed è negativo; se a = 0, abbiamo − 0 = 0. √ Esempio 3.13. 1. Abbiamo 0 = 0, perché 02 = 0 e 0 > 0. √ 2. Abbiamo 4 = 2, perché 22 = 4 e 2 > 0. q  5 5 2 5 3. Abbiamo 25 = 25 9 = 3 , perché 3 9 e 3 > 0. √ Proposizione 3.14. Il numero 2 ∈ R non appartiene a Q.

Dimostrazione. Dimostriamo per assurdo. Supponiamo che √ l’enunciato √ n 2 ∈ Q. Allora abbiamo 2 = m con n ∈ N e m ∈ N \ {0} primi  n 2 = 2, cosicché n2 = 2m2 . Da ciò tra loro ◮. Abbiamo quindi che m 2 ◮ deduciamo che n è pari, e quindi anche n lo è, ossia n = 2k con k ∈ Z. ◮ 2 2 2 2 Abbiamo quindi che (2k) = 2m , ossia 4k = 2m . Semplificando, otteniamo 2k2 = m2 . Per lo stesso ragionamento fatto sopra per n, abbiamo che anche m è pari. ◮ Abbiamo ottenuto che sia n che m sono divisibili per 2, ossia un assurdo: n e m erano primi tra loro.

c 2014 Gennaro Amendola

Versione 1.0

Scritto così, non serve una dimostrazione per induzione, ma facciamo finta di non notare che 4(2k) = 8k e quindi dimostriamo che 4(2k) è divisibile per 8 per induzione. ◮ 0 è divisibile per tutti i numeri naturali, infatti 0 = 0 · h per ogni h ∈ N.

◮ Che stiamo supponendo vera. ◮ Infatti due numeri consecutivi divisibili per 8 differiscono proprio per 8: 0, 8, 16, 24, 32, . . . . ◮ ◮ In realtà i numeri razionali sono “molti meno” di quelli reali.

Radice quadrata principale √ · ◮ Ricorda che a deve essere sempre non negativo.



4 6= −2, infatti anche se abbiamo (−2)2 = 4, la condizione (−2) > 0 non è soddisfatta.

√ L’ipotesi è che√ 2 ∈ R. La tesi è che 2 6∈ Q.

◮ Più precisamente, semplificando i fattori n comuni possiamo considerare la frazione m ridotta ai minimi termini. ◮ ◮ Esercizio 3.3. ◮ Non ripetiamo la dimostrazione, perché è la stessa di prima, sostituendo n con m.

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELLA AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 3/S1 Logica 1

Sessione di Studio 3.1 Logica

Lezione 3. Logica

3–9

Sessione di Studio 3.1 Esercizio 3.1. Riscrivi la seguente implicazione usando i quantificatori. Scrivi l’implicazione inversa, la contronominale e la negazione. Se cambiamo il segno di un numero reale positivo, otteniamo un numero reale negativo. Soluzione. L’implicazione può essere riscritta come ∀ x ∈ R abbiamo

x>0

∀ x ∈ R abbiamo

−x 0.

∀ x ∈ R abbiamo

−x>0

=⇒

x 6 0.

=⇒

L’implicazione inversa è La contronominale è La negazione è

−x < 0.

∃ x ∈ R tale che x > 0 e − x > 0. Esercizio 3.2. Trova l’ipotesi e la tesi del seguente enunciato, e dimostra che è falso. Dato un numero naturale positivo e un numero reale negativo, la somma del quadrato del primo e del doppio del secondo è positiva. Soluzione. Ipotesi: n ∈ N con n > 0, e x ∈ R con x < 0. Tesi: n2 + 2x > 0. L’enunciato può essere riscritto usando i quantificatori come ∀ n ∈ N con n > 0, e ∀ x ∈ R con x < 0

=⇒

n2 + 2x > 0.

∃ n ∈ N con n > 0, e ∃ x ∈ R con x < 0

=⇒

n2 + 2x < 0.

La negazione di questo enunciato è

Scegliamo n = 1 e x = −1, cosicché abbiamo n2 + 2x = 12 + 2(−1) = −1 < 0. Esercizio 3.3. Dimostra che n ∈ N è pari se e solo se n2 è pari.

Soluzione. Cominciamo dimostrando “n ∈ N pari ⇒ n2 pari”. Se n è pari, è uguale a 2k per un qualche k ∈ N. Allora abbiamo n2 = (2k)2 = 4k2 e quindi n2 è pari. Ora dovremmo dimostrare “n ∈ N pari ⇐ n2 pari”. Invece di dimostrare ciò, dimostriamo la sua contronominale “n ∈ N dispari ⇒ n2 dispari”. Visto che n è dispari, è uguale a 2k + 1 per un qualche k ∈ N.  2 2 2 2 Allora abbiamo n = (2k + 1) = 4k + 4k + 1 = 4 k + k + 1 e quindi n2 è dispari. La dimostrazione è completa. Esercizio 3.4. Dimostra che la somma dei primi k numeri naturali non . nulli è k(k+1) 2 c 2014 Gennaro Amendola

Versione 1.0

Lezione 3. Logica

3–10

Soluzione. Dimostriamo l’enunciato per induzione su k. .◮ Caso base. Per k = 1 abbiamo 1 = 1(1+1) 2 Passo induttivo. Supponiamo che la somma dei primi k numeri naturali non nulli è k(k+1) , e dimostriamo che la somma dei primi k + 1 2

◮ Per k = 2 abbiamo 1 + 2 =

2(2+1) . 2

(k+1) (k+1)+1

. Abbiamo che la somma dei numeri naturali non nulli è 2 primi k + 1 numeri naturali non nulli è uguale alla somma dei primi k numeri naturali non nulli più k + 1 ◮. Per l’ipotesi induttiva abbiamo che , quindi la somma la somma dei primi k numeri naturali non nulli è k(k+1) 2 k(k+1) dei primi k + 1 numeri naturali non nulli è + (k + 1). Abbiamo 2 + (k + 1) = k(k+1)+2(k+1) = 2 dimostrazione è completa. k(k+1) 2

c 2014 Gennaro Amendola

(k+1)(k+2) 2

=

(k+1) (k+1)+1 2

, quindi la

Versione 1.0

◮ Che è il (k + 1)-esimo numero naturale non nullo.

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE COMPLEMENTI DI MATEMATICA 3/S2 Logica 1

Sessione di Studio 3.2 Logica

2010

Lezione 3. Logica

3–11

Sessione di Studio 3.2 Esercizio 3.5. Riscrivi la seguente implicazione usando i quantificatori. Scrivi l’implicazione inversa, la contronominale e la negazione. Se aggiungiamo 1 a un numero razionale positivo, otteniamo un numero maggiore o uguale a 2. Esercizio 3.6. Trova l’ipotesi e la tesi del seguente enunciato, e dimostra che è falso. Dato un numero razionale negativo, esiste un intero negativo tale che la somma dei due numeri è la radice quadrata principale di un numero reale positivo. √ Esercizio 3.7. Dimostra che 3 non è razionale.

c 2014 Gennaro Amendola

Versione 1.0

Lezione 3. Logica

3–12

Risultato dell’Esercizio 3.5. L’implicazione può essere riscritta come ∀ q ∈ Q abbiamo

q>0

∀ q ∈ Q abbiamo

q+1>2

=⇒

q > 0.

∀ q ∈ Q abbiamo

q+1 2.

L’implicazione inversa è La contronominale è La negazione è

∃ q ∈ Q tale che q > 0 e q + 1 < 2.

Risultato dell’Esercizio 3.6. Ipotesi: q ∈ Q con q < 0. Tesi: ∃ k ∈ Z √ con k < 0 e ∃ x ∈ R con x > 0 tale che q + h = x. √ Cerca un controesempio tale che q + h = x è negativo per ogni k ∈ Z con k < 0 e x ∈ R con x > 0: per esempio, q = −1. Risultato dell’Esercizio 3.7. Ripeti la dimostrazione della Proposizione 3.14, cambiando ciò che deve essere cambiato.

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 3/S3 Logica 1

Sessione di Studio 3.3 Logica

Lezione 3. Logica

3–13

Sessione di Studio 3.3 Letture supplementari possono essere le seguenti: • http://it.wikipedia.org/wiki/Proposizione_(logica) • http://it.wikipedia.org/wiki/Quantificatore

• http://it.wikipedia.org/wiki/Implicazione_logica

• http://it.wikipedia.org/wiki/Negazione_(matematica) • http://it.wikipedia.org/wiki/Controesempio • http://it.wikipedia.org/wiki/Teorema

• http://it.wikipedia.org/wiki/Dimostrazione_matematica

c 2014 Gennaro Amendola

Versione 1.0

Lezione 3. Logica

3–14

Sessione di Studio 3.Quiz Seguirà un quiz, le cui domande sono le seguenti, per controllare il livello di approfondimento degli argomenti studiati: assicurati di avere a disposizione queste domande quando farai il quiz. L’esito del quiz non sarà tenuto in considerazione per l’esame. Dopo aver svolto il quiz ricontrolla le domande, specialmente quelle a cui non hai risposto in maniera corretta. Per ognuna delle seguenti domande, la risposta esatta è una sola. Domanda 3.1. Quale delle seguenti non è una proposizione? (a) Il cielo è azzurro? (b) Tutte le automobili hanno una targa. (c) Tutti i numeri dispari sono pari. (d) Esiste un pezzo di carta bianco. Domanda 3.2. Cosa vuol dire il simbolo “∀”? (a) “Esiste”. (b) “Per ogni”. (c) “Non”. (d) “Non esiste”. Domanda 3.3. Cosa vuol dire il simbolo “∃”? (a) “Non”. (b) “Esiste”. (c) “Non esiste”. (d) “Per ogni”. Domanda 3.4. Quale delle seguenti implicazioni è vera? (a) Dato x ∈ N, x è pari =⇒ x + 1 è pari. (b) Dato x ∈ N, x è pari =⇒ x + 1 è dispari. (c) Dato x ∈ N, x è pari =⇒ 2 è dispari. (d) 2 è pari =⇒ 4 è dispari. Domanda 3.5. Quale delle seguenti è l’inversa dell’implicazione “dato x ∈ N, se x è pari allora 2x è pari”? (a) Dato x ∈ N, se x è dispari allora 2x è dispari. (b) Dato x ∈ N, se 2x è dispari allora x è dispari. (c) Dato x ∈ N, se x è dispari allora 2x è pari. (d) Dato x ∈ N, se 2x è pari allora x è pari.

c 2014 Gennaro Amendola

Versione 1.0

Lezione 3. Logica

3–15

Domanda 3.6. Quale delle seguenti è la negazione della proposizione “esiste x ∈ N pari tale che 2x è pari”? (a) Esiste x ∈ N pari tale che 2x è dispari. (b) Non esiste x ∈ N pari tale che 2x è dispari. (c) Per ogni x ∈ N pari si ha che 2x è pari. (d) Per ogni x ∈ N pari si ha che 2x è dispari. Domanda 3.7. Quale delle seguenti è la contronominale dell’implicazione “dato x ∈ N, se x è pari allora 2x è pari”? (a) Dato x ∈ N, se x è dispari allora 2x è dispari. (b) Dato x ∈ N, se 2x è dispari allora x è dispari. (c) Dato x ∈ N, se x è dispari allora 2x è pari. (d) Dato x ∈ N, se 2x è pari allora x è pari. Domanda 3.8. Quale dei seguenti non può essere chiamato teorema? (a) Dato x ∈ N, se x è dispari allora 2 è dispari. (b) Dato x ∈ N, se x è dispari allora x + 1 è pari. (c) Dato x ∈ N, se x è pari allora x + 1 è dispari. (d) Dato x ∈ N, se x è pari allora 2 è pari. Domanda 3.9. Come è chiamata la dimostrazione della proposizione “P ⇒ Q” che consiste nel dimostrare la proposizione “nonQ ⇒ nonP ”? (a) “Costruttiva”. (b) “Per assurdo”. (c) “Per induzione”. (d) Nessuna delle precedenti. Domanda 3.10. Quanto vale (a) 3.



9?

(b) 9. (c) ±3. (d) −3.

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 4 Algebra 1

Lezione 4 Algebra

Lezione 4

Algebra In questa lezione rivedremo brevemente alcune nozioni di base di algebra. Esse sono fondamentali per ciò che faremo in seguito, sia per i concetti (che sono la base per i concetti futuri) che per l’introduzione del linguaggio matematico (che useremo nelle altre lezioni).

4.1

Algebra

Lettere Per rappresentare i numeri non specificati (o altri elementi ◮), nelle formule matematiche sono usate le lettere ◮. Ogni lettera, a seconda del caso, rappresenta un elemento appartenente a un particolare insieme I, e si comporta proprio come se fosse un elemento di quell’insieme: se si specifica il valore dell’elemento rappresentato, diciamo che la lettera vale quell’elemento o assume il valore di quell’elemento. Questa notazione è molto utile, ma “pericolosa”: da un lato ci permette di scrivere formule valide in generale, dall’altro ci obbliga a fare attenzione perché il significato della formula può cambiare drasticamente se la lettera assume qualche valore particolare. Esempio 4.1.

◮ Funzioni, vettori, ecc. ◮ L’abbiamo già visto nelle lezioni precedenti.

1. La formula del quadrato di un binomio

(a + b)2 = a2 + 2ab + b2 ci permette di rappresentare una relazione valida per ogni a, b ∈ C. Se a assume il valore 3 e b assume il valore −4 la formula diventa ◮. (3 + (−4))2 = 32 + 2 · 3 · (−4) + (−4)2 .

n 2. Con la formula m , con n e m numeri interi, possiamo rappresentare un qualsiasi numero razionale, ma dobbiamo stare attenti a porre ◮ m 6= 0, perché non è possibile dividere per 0. ◮

A seconda di come una lettera è utilizzata, essa viene chiamata in modo diverso: • una variabile è una lettera libera di assumere un qualsiasi valore in I; • una incognita è una lettera soggetta ad alcune condizioni ◮;

• una costante o parametro è una lettera che, pur libera di assumere ◮. un qualsiasi valore in I, è considerata fissata ◮

c 2014 Gennaro Amendola

Versione 1.0

◮ Dobbiamo usare le parentesi perché due simboli di operazioni non possono essere adiacenti: scrivere 3 + −4 è sbagliato. ◮ Fare la divisione tra due numeri a e b si◮ gnifica trovare un terzo numero c tale che a = bc. Se b = 0 abbiamo problemi:

• se a 6= 0 non troviamo nessun numero c tale che a = 0c; • se a = 0 tutti i numeri c sono tali che 0 = 0c; in entrambi i casi non abbiamo una soluzione unica, quindi non possiamo fare la divisione per 0. Variabile

Incognita ◮ Tipicamente, il problema è trovare quali elementi soddisfano le condizioni imposte alle incognite.

Costante/parametro ◮ ◮ Anche se non se ne conosce il valore.

Lezione 4. Algebra

4–2

Lettera

Trascrizione

Lettera

Transcrizione

Aα Bβ Γγ ∆δ Eǫ Z ζ H η Θθ Λλ M µ

alfa beta gamma delta epsilon zeta eta teta lambda mi

N ν Ξξ Ππ P ρ Σσ T τ Φφ X χ Ψψ Ωω

ni xi pi ro sigma tau fi chi psi omega

Tabella 4.1: Lettere dell’alfabeto greco. La tabella non è completa. Esempio 4.2. Nella formula ax2 , le due lettere a e x sono variabili (ad esempio, numeri interi, ossia a, x ∈ Z). Se però consideriamo la lettera x fissata, essa diventa un parametro (o una costante) e la formula è pensata come un modo sintetico per scrivere a · (−1)2 , a · 02 , a · 12 , a · 22 , ecc. Se cerchiamo i valori di x per cui ax2 = 18, allora la lettera x è un’incognita. Oltre alle lettere, maiuscole e minuscole, dell’alfabeto latino, si usano anche le lettere, maiuscole e minuscole, dell’alfabeto greco (Tabella 4.1). ◮ A volte, quando sono necessarie molte variabili, o se è utile numerare le variabili, possono essere usati apici e pedici; ad esempio, possiamo ◮ (0) (1) (2) ◮, o a′ , a′′ , a′′′ ◮ avere a0 , a1 , a2 , . . . ◮ ◮, o a , a , a , . . . ◮. Nel terzo caso usiamo le parentesi per evitare confusione con l’elevamento a potenza, ma a volte usiamo anche la notazione a0 , a1 , a2 , a3 , . . . specificando, in ogni caso, che non stiamo elevando a potenza. A volte, è utile usare la stessa lettera per rappresentare due oggetti simili ma diversi, in tal caso usiamo un segno per distinguere le due lettere, come ad esempio x e x. La scelta delle lettere in base alla situazione è completamente arbitraria, a patto di non usare la stessa lettera con due diversi significati. Ci sono però delle convenzioni, per aiutare a comprendere meglio le formule, anche se ci sono situazioni in cui esse non sono seguite: ad esempio, • le lettere x, y, z sono tipicamente riservate alle variabili/incognite, • le lettere a, b, c sono tipicamente riservate alle costanti, • le lettere m, n sono tipicamente riservate agli interi,

• per gli indici sono tipicamente usate le lettere i, j, h, k,

• per gli angoli sono tipicamente usate le lettere minuscole dell’alfabeto greco (α, β, γ, . . . ), • per i punti della retta, del piano o dello spazio sono tipicamente usate le lettere maiuscole dell’alfabeto latino (A, B, C, . . . ), • per le rette del piano o dello spazio sono tipicamente usate le lettere minuscole dell’alfabeto latino (r, s, t, . . . ),

c 2014 Gennaro Amendola

Versione 1.0

◮ Non usiamo le lettere maiuscole dell’alfabeto greco se coincidono con quelle dell’alfabeto latino. ◮ ◮ Si pronunciano “a (con) zero”, “a (con) uno”, “a (con) due”, ecc. ◮ Si pronunciano “a primo”, “a secondo”, “a ◮ ◮ terzo”, ecc. ◮ Si pronunciano “a (con) zero”, “a (con) uno”, “a (con) due”, ecc.

Lezione 4. Algebra

4–3

• per i piani dello spazio sono tipicamente usate le lettere minuscole dell’alfabeto greco (α, β, γ, . . . ). Sommatoria e produttoria Spesso faremo somme e prodotti di espressioni indicizzate in qualche P modo. In tal casoQuseremo rispettivamente i simboli di sommatoria e di produttoria , e indicheremo sopra e sotto questi simboli quali sono gli indici su cui si somma e si moltiplica, e in quale insieme variano. Ad esempio, per la somma abbiamo n X ai := am + am+1 + · · · + an con m < n, i=m

X

ai := am + am+1 + · · · + an

n X

}| { z }| { z ai := am + am+1 + · · · + ah−1 + ah+1 + · · · + an

Sommatoria e produttoria

P

La prima si legge “sommatoria” (o semplicemente “somma”) per i che varia tra m e n dell’espressione ai . Le altre si leggono in maniera analoga.

con m < n,

i∈{m,m+1,...,n}

i=m i6=h

X

da h + 1

fino a h − 1

con m < n e m 6 h 6 n,

i=2

i=1

i=n

z }| { z }| { }| { z aij := a11 + a12 + · · · + a1m + a21 + a22 + · · · + a2m + · · · + an1 + an2 + · · · + anm ,

i=1,2,...,n j=1,2,...,m

dove le ai e le aij sono espressioni che dipendono rispettivamente dall’indice i e dagli indici i e j. Ci sono anche casi estremi in cui la somma si riduce a un solo addendo (m = n) o a zero addendi (m > n): nel primo caso il risultato è l’unico addendo, nel secondo è 0 ◮, ad esempio n X ai := an , i=n n X

ai := 0

◮ Perché 0 è l’elemento neutro dell’addizione: non sommare significa lasciare tutto inalterato, ossia sommare 0.

con m > n.

i=m Q

Analogamente, per il prodotto abbiamo ◮ n Y ai := am · am+1 · · · an con m < n,

La prima si legge “produttoria” (o semplicemente “prodotto”) per i che varia tra m e n dell’espressione ai . Le altre si leggono in maniera analoga.

i=m

Y

ai := am · am+1 · · · an

n Y

z }| { z }| { ai := am · am+1 · · · ah−1 · ah+1 · · · an

con m < n,

◮ L’ultima uguaglianza segue dal fatto che l’elemento neutro della moltiplicazione è 1: non moltiplicare significa lasciare tutto inalterato, ossia moltiplicare per 1.

i∈{m,m+1,...,n}

i=m i6=h

Y

fino a h − 1

i=1

da h + 1

i=2

con m < n e m 6 h 6 n, i=n

}| { z }| { z }| { z aij := a11 · a12 · · · a1m · a21 · a22 · · · a2m · · · an1 · an2 · · · anm ,

i=1,2,...,n j=1,2,...,m n Y

ai := an ,

i=n n Y

ai := 1

con m > n,

i=m c 2014 Gennaro Amendola

Versione 1.0

Lezione 4. Algebra

4–4

dove le ai e le aij sono espressioni che dipendono rispettivamente dall’indice i e dagli indici i e j. P Q Esempio 4.3. 1. Abbiamo 3i=0 i = 0+1+2+3 e 3i=0 i = 0·1·2·3. 2. Abbiamo 5 X 12 22 32 42 52 i2 = + + + + 3 3 3 3 3 3

e

i=1

3. Abbiamo 4. Abbiamo

P6

4 4 i=6 i = 6 √ P2 i=4 i = 0

e e

Q6

5 2 Y i i=1

3

=

12 22 32 42 52 · · · · . 3 3 3 3 3

4 4 i=6 i = 6 . √ Q2 i=4 i = 1.

Notazione 4.4. Se abbiamo variabili indicizzate, ad esempio ai , con l’indice i che appartiene a un insieme I, per evitare un appesantimento delle frasi, indicheremo con un asterisco ∗ un generico valore dell’indice i, ossia diremo “l’elemento a∗ ”, invece di “l’elemento ai , con i ∈ I”, oppure “gli elementi a∗ ”, invece di “gli elementi ai , con i ∈ I”.

Equazioni Equazioni Una equazione è una uguaglianza in cui compaiono una o più incognite appartenenti ciascuna a un dato insieme. A meno che non sia indicato esplicitamente, le incognite sono quelle che compaiono nell’equazione, ◮ e l’insieme in cui variano è R. Il segno di uguaglianza divide l’equazione in due membri, il membro sinistro e il membro destro. Una soluzione di una equazione consiste in una n-upla di valori, uno per ogni incognita, tali che se ogni incognita assume il valore corrispondente, l’equazione è soddisfatta ◮. Quindi una soluzione può essere pensata come un elemento del prodotto cartesiano degli insiemi a cui appartengono le incognite. Una risoluzione di una equazione consiste nel trovare tutte le soluzioni dell’equazione; in tal caso diremo che risolviamo l’equazione. Esempio 4.5. 1. L’equazione 3x − 2 = 0 nell’insieme dei numeri reali ◮ ha la soluzione x = 23 , infatti 3 · 32 − 2 = 0.

2. L’equazione 0 = 0 nell’insieme dei numeri reali R ha come insieme delle soluzioni tutto R, infatti per ogni x ∈ R l’equazione è soddisfatta. ◮ Al contrario, l’equazione 0 = 1 nell’insieme dei numeri reali R non ha soluzioni, infatti per ogni x ∈ R l’equazione non è ◮ soddisfatta. ◮ 3. L’equazione x2 − 2 = 0 nell’insieme dei numeri reali ha la soluzione √ √ x1 = 2, ma anche la soluzione x2 = − 2. Invece, la stessa equazione nell’insieme dei numeri razionali non ha soluzioni: l’abbiamo dimostrato nella Proposizione 3.14. L’equazione x2 + 2 = 0 nell’insieme dei numeri reali non ha soluzioni, infatti sommando un quadrato (che è positivo o nullo) a un numero positivo (2) otteniamo sempre un numero che è positivo, e quindi diverso da zero. Invece, la stessa equazione nell’insieme dei √ numeri complessi ha le due soluzioni x = ± 2i.

4. L’equazione x − y + 1 = 0 nell’insieme dei numeri reali ha infinite soluzioni: per ogni α ∈ R la coppia (x, y) = (α, α + 1) è una c 2014 Gennaro Amendola

Versione 1.0

Equazione

◮ Le incognite che non compaiono nell’equazione sono libere di assumere qualsiasi valore.

Membri Soluzione ◮ Se c’è più di una incognita, non basta trovare un valore per una particolare incognita: una soluzione è formata da più valori, uno per ogni incognita.

◮ Ma anche nell’insieme dei numeri razionali o in quello dei numeri complessi.

◮ Qualsiasi numero scegliamo (ad esempio, √ x = 3, x = π 3 , x = 11) l’equazione 0 = 0 è verificata. ◮ Qualsiasi numero scegliamo (ad esempio, ◮ √ x = 3, x = π 3 , x = 11) l’equazione 0 = 1 non è verificata.

2 > 0. x2 + |{z} |{z} >0

>0

Qui abbiamo due incognite quindi le soluzioni sono coppie: la coppia (0, 1) è una soluzione (non sono due soluzioni, 0 e 1), la coppia (3, 4) è un’altra soluzione (non sono due soluzioni, 3 e 4).

Lezione 4. Algebra

4–5

soluzione dell’equazione, infatti α − (α + 1) + 1 = 0. Ad esempio, abbiamo √ α 0 3 −7 3 ↓ ↓ ↓ ↓ √ √↓  . 3, 3 + 1 (x, y) (0, 1) (3, 4) (−7, −6)

5. L’equazione x2 + y 2 = 0 nell’insieme dei numeri reali ha un’unica soluzione: la coppia (x, y) = (0, 0), infatti sommando due quadrati (che sono positivi o nulli) possiamo ottenere 0 se e solo se sono entrambi nulli.

x2 + y 2 = 0 ⇔ (x, y) = (0, 0). |{z} |{z} >0

>0

In una equazione possono comparire alcuni parametri. In tal caso, bisogna pensare i parametri come fissi, e nella risoluzione dell’equazione bisogna trovare solo i valori delle incognite. In altre parole, abbiamo una equazione diversa per ogni valore dei parametri. Esempio 4.6. Consideriamo l’equazione ax = b con l’incognita x ∈ R. Abbiamo due parametri, a, b ∈ R, quindi abbiamo infinite equazioni diverse√al variare della coppia (a, b) ∈ R2 : ad esempio, abbiamo 2x = 3, −x = 2, πx = 12, 0x = 2, 0x = 0. Esse possono essere raggruppate in tre tipologie: • se a 6= 0, abbiamo una soluzione x = ab , infatti a · ab = b; ◮ ◮ • se a = 0, distinguiamo due casi: ◮

– se b = 0, l’equazione è 0 = 0 che è verificata per ogni x ∈ R; – se b 6= 0, l’equazione è 0 = b che non è verificata per nessun x ∈ R.

Equazioni equivalenti le stesse soluzioni.

Due equazioni sono dette equivalenti se hanno

Osservazione 4.7. Applicando una delle seguenti operazioni a una equazione otteniamo un’equazione equivalente: • scambiare i membri; • sommare o sottrarre la stessa quantità da entrambi i membri;

• moltiplicare o dividere per la stessa quantità non-nulla entrambi i membri. ◮ Esempio 4.8. • Le equazioni 3x + 1 = 5x2 e 5x2 = 3x + 1 sono equivalenti perché sono ottenute l’una dall’altra scambiando i membri. • Le equazioni 3x + 1 = 5x2 e 3x + 3 = 5x2 + 2 sono equivalenti perché la seconda è ottenuta sommando 2 a entrambi i membri della prima. Le equazioni 3x + 1 = 5x2 e 3x = 5x2 − 1 sono equivalenti perché la seconda è ottenuta sottraendo 1 da entrambi i membri della prima. ◮ • Le equazioni 3x + 1 = 5x2 e 9x + 3 = 15x2 sono equivalenti perché la seconda è ottenuta moltiplicando per 3 entrambi i membri della prima. Le equazioni 3x + 1 = 5x2 e 3x+1 = x2 sono equivalenti 5

c 2014 Gennaro Amendola

Versione 1.0

◮ Possiamo dividere per a perché a è diverso da 0. ◮ ◮ Non possiamo dividere per a perché a è uguale a 0.

Equazioni equivalenti

Il viceversa non è vero: con queste operazioni non riusciamo a ottenere tutte le equazioni equivalenti. Ad esempio, sia x2 + 1 = 0 che 0 = 1 non hanno soluzioni reali (quindi sono equivalenti), ma non riusciamo a ottenerle l’una dall’altra con queste operazioni. ◮ Abbiamo già visto che non è possibile dividere per 0. Per quanto riguarda la moltiplicazione per 0, invece, può succedere che dopo la moltiplicazione compaiano nuove soluzioni.

◮ In questo caso, è come se avessimo spostato l’1 al secondo membro, cambiandolo di segno.

Lezione 4. Algebra

4–6

perché la seconda è ottenuta dividendo per 5 entrambi i membri della prima. ◮ Le equazioni 4x = 8 e 0 = 0 non sono equivalenti (la seconda è ottenuta moltiplicando per 0 entrambi i membri della prima), infatti la prima equazione ha un’unica soluzione (x = 2) ◮, mentre la seconda è sempre verificata. Le equazioni ax = a e x = 1 sono equivalenti se a 6= 0 (in tal caso, la seconda equazione è ottenuta dividendo entrambi i membri della prima per a); se, invece, a = 0 la prima equazione (0 = 0) è sempre verificata, mentre la seconda ha un’unica soluzione (x = 1).

◮ In questo caso, è come se avessimo spostato il 5 al primo membro, mettendolo al denominatore. ◮ Dividendo entrambi i membri per 4 otteniamo l’equazione equivalente x = 2.

Notazione 4.9. D’ora in poi non faremo distinzione tra equazioni che si ottengono l’una dall’altra tramite le tre operazioni descritte nell’Osservazione 4.7. Esempio 4.10. Le quattro equazioni dell’esempio precedente 3x + 1 = 5x2 , 5x2 = 3x + 1, 3x + 3 = 5x2 + 2, 3x = 5x2 − 1, 9x + 3 = 15x2 , 3x+1 = x2 sono pensate come un’unica equazione. 5

Sistemi di equazioni Sistemi di equazioni Un sistema (di equazioni) è una collezione di equazioni eq1 , eq2 , . . . , eqn , ed è indicato con  eq1     eq2 . ..  .    eqn

Una soluzione del sistema è una soluzione comune a tutte le equazioni eq1 , eq2 , . . . , eqn . Una risoluzione di un sistema (di equazioni) consiste nel trovare tutte le soluzioni del sistema (di equazioni); in tal caso diremo che risolviamo il sistema (di equazioni). Visto che prenderemo in considerazione solo sistemi di equazioni (e non, ad esempio, di disequazioni), non ripeteremo ogni volta le parole “di equazioni”. La tecnica più semplice per risolvere un sistema è la sostituzione. Essa consiste nel risolvere un’equazione del sistema rispetto a una variabile (considerando le altre parametri), sostituire poi la soluzione (o le soluzioni) trovata nelle altre equazioni, e ripetere il processo finché non viene trovata l’ultima variabile; in seguito si ripetono i passi in ordine inverso trovando ricorsivamente le altre variabili; alla fine, si controlla che le soluzioni trovate soddisfano le equazioni che non sono state usate. Si noti che alcune variabili possono essere libere di assumere qualsiasi valore.   3x = 5 Esempio 4.11. 1. Il sistema y 2 − 2 = 0 nelle incognite x, y ∈ R  1=1 √  ha tre equazioni e due incognite. Ha due soluzioni: (x, y) = 35 , 2 √  e (x, y) = 35 , − 2 . Lo stesso sistema nelle incognite x, y ∈ Q non ha soluzioni. ◮

c 2014 Gennaro Amendola

Versione 1.0

Sistemi (di equazioni)

Soluzione

Sostituzione

◮ Non esistono coppie di numeri razionali (x, y) tali che y 2 = 2 (Proposizione 3.14).

Lezione 4. Algebra

4–7

Lo stesso sistema nelle incognite x, y, z ∈ R ha tre e tre √ equazioni  incognite. Ha infinite soluzioni ◮: (x, y, z) = 53 , 2, α con α ∈ R √  e (x, y, z) = 35 , − 2, α con α ∈ R.   2x + z = 3 2y = 0 2. Il sistema nelle incognite x, y, z ∈ R ha tre  2z − y + 4x = 6 equazioni e tre incognite. Cerchiamo le soluzioni: la prima equazione può essere riscritta come z = 3 − 2x e la seconda come y = 0; sostituendo nella terza equazione otteniamo 2(3 − 2x) − 0 + 4x = 6, ossia 0 = 0, che è sempre verificata. Quindi le soluzioni sono tutte le terne (x, y, z) tali che y = 0 e z = 3 − 2x. Possiamo quindi scegliere arbitrariamente l’incognita x ∈ R: ossia per ogni α ∈ R abbiamo la soluzione L’insieme delle  (x, y, z) = (α, 0, 3 − 2α). soluzioni è quindi (α, 0, 3 − 2α) ∈ R3 α ∈ R .

Sistemi equivalenti stesse soluzioni.

Due sistemi sono detti equivalenti se hanno le

Osservazione 4.12. Applicando una delle seguenti operazioni alle equazioni di un sistema ottieniamo un sistema equivalente: I) scambio di due equazioni del sistema; II) moltiplicazione di entrambi i membri di una equazione del sistema per lo stesso valore non nullo; ◮ III) sostituzione di un’equazione del sistema con l’equazione ottenuta sommando a ciascun membro dell’equazione stessa il corrisponden◮. te membro di un’altra equazione moltiplicato per un numero ◮ Per semplicità, diremo semplicemente che “moltiplichiamo un’equazione per un numero” per il caso II e che “aggiungiamo un multiplo di un’equazione a un’altra” per il caso III. Definizione 4.13. Le tre operazioni descritte nella precedente osservazione sono dette rispettivamente di tipo I, di tipo II e di tipo III. Esempio 4.14. 1. Applichiamo alcune operazioni al sistema   3x = 5 y2 − 2 = 0  1=1

dell’Esempio 4.11-1.  2  y −2=0 I) Il sistema 3x = 5 è ottenuto scambiando le prime due  1=1 equazioni (operazione di tipo I).   3x = 5 4y 2 − 8 = 0 è ottenuto moltiplicando entramII) Il sistema  1=1 bi i membri della seconda equazione per 4 (operazione di tipo II).

c 2014 Gennaro Amendola

Versione 1.0

◮ Non abbiamo condizioni sulla variabile z che, quindi, è libera di assumere qualsiasi valore reale.

Sistemi equivalenti

Il viceversa non è vero: con queste operazioni non riusciamo a ottenere tutti i sistemi equivalenti. Ad esempio, sia  0 = 1 sono sistemi x2 + 1 = 0 che (con una sola equazione) che non hanno soluzioni reali, ma non riusciamo a ottenerle l’una dall’altra con queste operazioni. ◮ Questa operazione è stata già considerata nell’Osservazione 4.7: la ripetiamo qui perché ci sarà utile in seguito. ◮ ◮ Il numero per cui moltiplichiamo deve essere lo stesso per entrambi i membri. Inoltre non richiediamo che il numero sia non nullo, ma se scegliamo 0 l’operazione non cambia il sistema, quindi è “inutile”.

Operazioni di tipo I/II/III

Lezione 4. Algebra

4–8

  3x = 5 III) Il sistema y 2 − 2 + 6x = 10 è ottenuto sostituendo alla  1=1 seconda equazione l’equazione ottenuta sommando a ciascun membro dell’equazione stessa (la seconda) il corrispondente membro della prima equazione moltiplicato per 2 (operazione di tipo III). 2. Applichiamo alcune operazioni al sistema   2x + z = 3 2y = 0  2z − y + 4x = 6

dell’Esempio 4.11-2.   2z − y + 4x = 6 I) Il sistema 2y = 0 è ottenuto scambiando la pri 2x + z = 3 ma equazione con la terza (operazione di tipo I).   2x + z = 3 y=0 II) Il sistema è ottenuto moltiplicando la  2z − y + 4x = 6 seconda equazione per 12 (operazione di tipo II).   2x + z = 3 2y = 0 è ottenuto aggiungendo alla III) Il sistema  4 8 z − y + x = 4 3 3 terza equazione la prima moltiplicata per − 32 (operazione di tipo III).

Osservazione 4.15. Nell’operazione di tipo II è fondamentale la richiesta che il numero per cui moltiplichiamo sia diverso da zero, altrimenti l’equivalenza non è assicurata, perché moltiplicando per zero possono comparire nuove soluzioni. 1. Se moltiplichiamo entrambi i membri della se  3x = 5 conda equazione del sistema y 2 − 2 = 0 nelle incognite x, y ∈  1=1   3x = 5 ◮ 0 = 0 (sempre nelle incognite R per 0 otteniamo il sistema  1=1  x, y ∈ R) che ha infinite soluzioni: (x, y) = 53 , α with α ∈ R.

Esempio 4.16.

2. Se moltiplichiamo entrambi i membri della terza equazione del si 2x + z = 3  2y = 0 stema nelle incognite x, y, z ∈ R ◮ per 0 otte 2z − y + 4x = 6   2x + z = 3 2y = 0 niamo il sistema (sempre nelle incognite x, y, z ∈  0=0 R) che ha le stesse soluzioni del sistema iniziale ◮: (x, y, z) = (α, 0, 3 − 2α) ∈ R3 con α ∈ R. c 2014 Gennaro Amendola

Versione 1.0

◮ Esempio 4.11-1.

◮ Esempio 4.11-2.

◮ Qui siamo stati “fortunati” ad annullato una equazione “inutile”.

aver

Lezione 4. Algebra

4–9

Se ora moltiplichiamo entrambi  i membri della seconda equazione  2x + z = 3 per 0 otteniamo il sistema 0=0 (sempre nelle incognite  0=0 x, y, z ∈ R) che ha più soluzioni del sistema iniziale ◮: (x, y, z) = (α, β, 3 − 2α) ∈ R3 con α, β ∈ R.

◮ Non abbiamo restrizioni sull’incognita y.

Equazioni dipendenti Se una equazione di un sistema è ottenuta dalle altre utilizzando operazioni di tipo II e III, diremo che essa è dipendente dalle altre. Osservazione 4.17. Se una equazione, eqi , di un sistema è dipendente dalle altre, allora eliminandola otteniamo un sistema equivalente. Infatti, se essa è ottenuta dalle altre con operazioni di tipo II e III, possiamo ripetere in ordine inverso le stesse operazioni su eqi , ma dividendo (invece di moltiplicare) per le operazioni di tipo II e sottraendo (invece di sommare) per le operazioni di tipo III; alla fine otteniamo un’equazione uguale a un’altra equazione del sistema, quindi essa non influisce sulle soluzioni del sistema e può essere cancellata senza alterare le soluzioni ◮. Abbiamo ottenuto il sistema iniziale da cui abbiamo eliminato l’equazione eqi , che quindi è equivalente al sistema iniziale.

Equazione dipendente

◮ L’equazione 0 = 0 è sempre soddisfatta.

Esempio 4.18. 1. Consideriamo il sistema  4x − y 2 = 0    3y + z = 0 . 15y + 5z = 0    4x − y 2 − 9y − 3z = 0

II) La terza equazione è ottenuta moltiplicando per 5 entrambi i membri della seconda (operazione ditipo II); quindi essa può  4x − y 2 = 0 essere eliminata ottenendo il sistema 3y + z = 0  4x − y 2 − 9y − 3z = 0 equivalente a quello iniziale. ◮ III) La quarta equazione invece è ottenuta sommando a ciascun membro della prima equazione il corrispondente membro della seconda equazione moltiplicato per −3 (operazione di tipo essa può essere eliminata ottenendo il sistema  III); quindi 2  4x − y = 0 ◮ 3y + z = 0 equivalente a quello iniziale. ◮  15y + 5z = 0

◮ Moltiplicando entrambi i membri della terza equazione per 15 (operazione di tipo il sistema equivalente  II), otteniamo  4x − y 2 = 0   3y + z = 0 . 3y + z = 0    2 4x − y − 9y − 3z = 0

◮ ◮ Sostituendo alla quarta equazione l’equazione ottenuta aggiungendo all’equazione stessa la seconda equazione moltiplicata per 3 (operazione di tipo  III), otteniamo  4x − y 2 = 0   3y + z = 0 il sistema equivalente . 15y + 5z = 0    2 4x − y = 0

Applicando in sequenza i due passi indicati sopra otteniamo il  4x − y 2 = 0 sistema equivalente . 3y + z = 0   2x + z = 3 2. La terza equazione del sistema 2y = 0 dell’Esempio 4.11 2z − y + 4x = 6 2 è ottenuta moltiplicando per 2 la prima (operazione di tipo II) e poi aggiungendo all’equazione appena ottenuta la seconda equazione moltiplicata per − 21 (operazione di tipo III); quindi essa può c 2014 Gennaro Amendola

Versione 1.0

Lezione 4. Algebra

essere eliminata ottenendo il sistema quello iniziale. ◮

c 2014 Gennaro Amendola

4–10 

2x + z = 3 equivalente a 2y = 0 ◮ Sostituendo alla terza equazione l’equazione ottenuta aggiungendo all’equazione stessa la seconda equazione moltiplicata per 21 (operazione di tipo III), otteniamo   2x + z = 3 2y = 0 il sistema equivalente .  2z + 4x = 6 Moltiplicando poi entrambi i membri della terza equazione per 21 (operazione di tipo  II), otteniamo il sistema equivalente  2x + z = 3 2y = 0 .  z + 2x = 3

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 4/S1 Algebra 1

Sessione di Studio 4.1

Algebra

Lezione 4. Algebra

4–11

Sessione di Studio 4.1 1. Calcola

Esercizio 4.1. 2. Calcola

4 Y

aj con aj =

P2

h=0



h2 − 4h + 4.

1 (j−1)2 .

j=−1 j6=1

Soluzione. 2 p X h=0

1. Abbiamo la seguente catena di uguaglianze:

h2 − 4h + 4 = =

p



02 − 4 · 0 + 4 +

4+

p

12 − 4 · 1 + 4 +

√ √ 1 + 0 = 2 + 1 + 0 = 3.

p

22 − 4 · 2 + 4 =

2. Abbiamo la seguente catena di uguaglianze: 4 Y

1 1 1 1 1 1 = · · · · = (j − 1)2 (−1 − 1)2 (0 − 1)2 (2 − 1)2 (3 − 1)2 (4 − 1)2

j=−1 j6=1

=

1 1 1 1 1 1 1 1 1 · · 2 · 2 · 2 = ·1·1· · = . 2 2 (−2) (−1) 1 2 3 4 4 9 144

Esercizio 4.2. Risolvi l’equazione x2 + 2x − 3 = 2(x − 1).

Soluzione. L’equazione è x2 + 2x − 3 = 2x − 2. Sottraendo da entrambi i membri 2x, otteniamo l’equazione equivalente x2 − 3 = −2. Spostando −3 al secondo membro, cambiandolo di segno, otteniamo l’equazione equivalente x2 = 1. Le soluzioni sono quindi x = 1 e x = −1.

Osservazione 4.7.

 2  y =1 Esercizio 4.3. Risolvi il sistema 6x + 2z − 2y − y 2 = 3 .  3x + z − y = 2

Soluzione. La seconda equazione è dipendente dalle altre due, infatti è ottenuta moltiplicando entrambi i membri della terza equazione per 2, e poi sottraendo a ciascun membro dell’equazione ottenuta il corrispondente membro della prima equazione. Quindi la seconda  2 equazione può y =1 essere eliminata, ottenendo il sistema equivalente . 3x + z − y = 2 Dalla prima equazione otteniamo y = ±1. Dalla seconda otteniamo z = y − 3x + 2, e quindi due casi a seconda di y: ossia z = −1 − 3x + 2 e z = 1 − 3x + 2. Allora otteniamo le soluzioni (x, y, z) = (α, −1, 1 − 3α) con α ∈ R e (x, y, z) = (α, 1, 3 − 3α) con α ∈ R.   x + 2y + 2z = 3 Esercizio 4.4. Risolvi il sistema 2x − 3y − z = −1 .  3x + 2z = 2

Soluzione. Dalla terza equazione otteniamo z = 1 − 32 x. Sostituendolo     −2x + 2y + 2 = 3  x + 2y + 2 1 − 32 x = 3 3 7 2x − 3y − 1 − 2 x = −1 , e quindi nelle altre otteniamo 2 x − 3y − 1 = −1 .   z = 1 − 32 x z = 1 − 32 x c 2014 Gennaro Amendola

Versione 1.0

Lezione 4. Algebra

4–12

Dalla seconda equazione otteniamo y = 67 x. Sostituendolo nell’altra    x=3  −2x + 2 76 x + 2 = 3 , e quindi . otteniamo y = 67 x y = 76 x   3 z = 1 − 2x z = 1 − 32 x   x=3 Sostituendo in ordine inverso il valore assunto da x otteniamo y = 27 ,  z = − 27  7 7 ossia la soluzione è (x, y, z) = 3, 2 , − 2 . Esercizio 4.5. Risolvi il sistema sono x, y, z, t.



x + 2y − z = −2 dove le incognite 2x + 4y + z = 5

Soluzione. Sottraendo dalla seconda equazione la prima moltiplicata  x + 2y − z = −2 , e quindi per 2 (operazione di tipo III) otteniamo 3z = 9  x + 2y − z = −2 . z=3  Sostituendo il valore assunto  da z nella prima equazione otteniamo x + 2y − 3 = −2 x = 1 − 2y , e quindi . z=3 z=3 La variabile t è libera di assumere qualsiasi valore, quindi le soluzioni sono (x, y, z, t) = (1 − 2α, α, 3, β) con α, β ∈ R.  3x1 + 3x2 − 2x3 + x4 = 1    2x1 + x2 − x3 + x4 = −2 Esercizio 4.6. Risolvi il sistema . x  1 + 2x2 − x3 = 2   x1 + x2 − x3 + 2x4 = 0

Soluzione. La terza equazioneè x1 = 2 − 2x2 + x3 , quindi sostituendo 3 (2 − 2x2 + x3 ) + 3x2 − 2x3 + x4 = 1    2 (2 − 2x2 + x3 ) + x2 − x3 + x4 = −2 nelle altre equazioni otteniamo , x + 2x2 − x3 = 2    1 (2 − 2x2 + x3 ) + x2 − x3 + 2x4 = 0  −3x2 + x3 + x4 = −5    −3x2 + x3 + x4 = −6 e quindi . x + 2x2 − x3 = 2    1 (2 − 2x2 + x3 ) + x2 − x3 + 2x4 = 0 Sottraendo la seconda equazione dalla prima (operazione di tipo III), otteniamo l’equazione 0 = 1, che non ha soluzione, quindi il sistema non ha soluzione.

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 4/S2 Algebra 1

Sessione di Studio 4.2

Algebra

Lezione 4. Algebra

4–13

Sessione di Studio 4.2 1. Calcola

Esercizio 4.7. 2. Calcola

Q4

i=1

p

X

bk con bk =

√ k 2 .

k∈{0,1,4,9,16,25}

i(i + 1).

Esercizio 4.8. Risolvi l’equazione 3x + 5 = 1 + x.  4x − y 2 = 0    3y + z = 0 . Esercizio 4.9. Risolvi il sistema 15y + 5z = 0    4x − y 2 − 9y − 3z = 0  2  x +y =4 Esercizio 4.10. Risolvi il sistema y + z = 3 , prima con le incognite  y−z =1 appartenenti a R e poi con le incognite appartenenti a Q.   3x + y + 2z = −3 2x + y − z = 1 . Esercizio 4.11. Risolvi il sistema  2x + y + 3z = −2  x1 − 2x2 + x3 − x4 = −1    x1 − 3x2 + 2x4 = −2 Esercizio 4.12. Risolvi il sistema . x + 2x3 − 3x4 = −2    1 5x2 + 3x3 − 7x4 = −1  2x1 + 3x2 − x3 = 3    3x1 − 2x2 = −1 Esercizio 4.13. Risolvi il sistema . x + x2 + 2x3 = 1    1 4x1 − 3x3 = 0

c 2014 Gennaro Amendola

Versione 1.0

Lezione 4. Algebra

Risultato dell’Esercizio 4.7. √ 2. 24 5.

4–14

1.

15 2 .

Risultato dell’Esercizio 4.8. x = −2.





α2 2 , α, −3α

con α ∈ R. √  Risultato dell’Esercizio 4.10. In R: (x, y, z) = ± 2, 2, 1 . ◮ In Q: nessuna soluzione. ◮  3 , − Risultato dell’Esercizio 4.11. (x, y, z) = − 47 , 15 4 4 . Risultato dell’Esercizio 4.9. (x, y, z) =

Risultato dell’Esercizio 4.12. (x1 , x2 , x3 , x4 ) = (−8 − 5a, −2 − a, 3 + 4a, a) con a ∈ R.

Risultato dell’Esercizio 4.13. Nessuna soluzione.

c 2014 Gennaro Amendola

Versione 1.0

Usa l’Esempio 4.18. ◮ Trova y e z, e poi x. √ ◮ Ricorda che 2 6∈ Q.

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 4/S3 Algebra 1

Sessione di Studio 4.3

Algebra

Lezione 4. Algebra

4–15

Sessione di Studio 4.3 Letture supplementari possono essere le seguenti: • http://it.wikipedia.org/wiki/Variabile_(matematica) • http://it.wikipedia.org/wiki/Alfabeto_latino • http://it.wikipedia.org/wiki/Alfabeto_greco

• http://it.wikipedia.org/wiki/Lettere_greche_in_matematica,_scienze,_ingegneria

• http://it.wikipedia.org/wiki/Sommatoria

• http://it.wikipedia.org/wiki/Produttoria • http://it.wikipedia.org/wiki/Equazione

• http://it.wikipedia.org/wiki/Sistema_di_equazioni

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 4/S3 Algebra 3

Sessione di Studio 4.3 Quiz

Algebra

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 4/S3 Algebra 3

• Risolvere il seguente quiz a risposta multipla in cui per ogni domanda una sola risposta è giusta. • Rivedere le risposte del quiz.

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE COMPLEMENTI DI MATEMATICA 5 Polinomi 1

Lezione 5 Polinomi

2010

Lezione 5

Polinomi In questa lezione rivedremo brevemente alcune nozioni di base sui polinomi. Esse sono fondamentali per ciò che faremo in seguito, sia per i concetti (che sono la base per i concetti futuri) che per l’introduzione del linguaggio matematico (che useremo nelle altre lezioni).

5.1

Polinomi

Monomi Definizione 5.1. Un monomio è il prodotto di un numero e di alcune variabili (anche nessuna), ciascuna delle quali compare una volta sola con un certo esponente intero positivo. Il numero è detto coefficiente numerico o semplicemente coefficiente, mentre la parte formata dalle variabili è detta parte letterale. Tutti i monomi senza parte letterale, ossia senza variabili, sono detti costanti. Tutti i monomi con coefficiente uguale a zero sono considerati uguali, e sono detti monomi nulli e indicati semplicemente con 0. Il grado di un monomio m è • la somma degli esponenti delle variabili se m 6= 0, ◮ • −∞ se m = 0; il grado di m è indicato con

Monomi Coefficiente (numerico) Parte letterale Monomio nullo Grado ◮ I monomi costanti hanno grado 0, perché la somma di nessun esponente è 0.

deg(·) Dall’inglese “degree”.

deg(m). Osservazione 5.2. • Non abbiamo considerato monomi che hanno alcune variabili con esponente nullo, perché, analogamente a quanto succede per i numeri non nulli, stipuliamo che ogni variabile elevata a zero sia uguale a 1. • Le particolari variabili utilizzate nel monomio non sono fondamentali: ad esempio, i monomi 3xy 2 e 3zt2 sono diversi, ma per molti aspetti si comportano allo stesso modo. • L’ordine delle variabili non è rilevante.

• Il grado di un monomio può essere solamente un numero intero positivo o nullo, oppure −∞.

Notazione 5.3. Può succedere che il coefficiente di un monomio sia una costante (o dipenda da una costante) non specificata: la costante non c 2014 Gennaro Amendola

Versione 1.0

Il grado di un monomio non può essere un numero negativo (ad esempio, −1, −2 o −27) √ o un numero non intero (ad esempio, 7 , 5 o π). 4

Lezione 5. Polinomi

5–2

è considerata nella parte letterale del monomio, bensì è il (o fa parte del) coefficiente. In tal caso, le variabili che formano la parte letterale verranno indicate esplicitamente. Esempio 5.4. 1. Il monomio 4x6 nella variabile x ha come coefficiente 4 e come parte letterale x6 ; il suo grado è 6. Il monomio x6 nella variabile x ha come coefficiente 1 e come parte letterale x6 ; il suo grado è 6. 2. Il monomio 21 a2 b3 nelle variabili a e b ha come coefficiente parte letterale a2 b3 ; il suo grado è 5.

1 2

e come

3. Il monomio 5a4 xy 2 può essere pensato in modi diversi a seconda di quali lettere scegliamo come variabili. Variabili

Coefficiente

Parte letterale

Grado

a, x, y a, x a, y x, y a x y

5 5y 2 5x 5a4 5xy 2 5a4 y 2 5a4 x 5a4 xy 2

a4 xy 2 a4 x a4 y 2 xy 2 a4 x y2

7 5 6 3 4 1 2 0

Nell’ultima riga il monomio è costante. 4. Il monomio 3 è un monomio costante. Anche il monomio ax, se sia a che x non sono considerate variabili (cosicché sono considerate costanti), è un monomio costante. Notazione 5.5. Oltre ad usare una semplice lettera (ad esempio, m), se vogliamo indicare esplicitamente le variabili, utilizziamo m (a1 , a2 , . . . , an ) . Se deg(m) > 0, sostituendo numeri α1 , α2 , . . . , αn alle variabili, indicheremo con m (α1 , α2 , . . . , αn ) il risultato della moltiplicazione. Se invece deg(m) = 0 oppure deg(m) = −∞ ◮, il risultato della moltiplicazione è definito come il coefficiente del monomio.

◮ Non ci sono variabili da sostituire.

Esempio 5.6. 1. Sostituendo il numero 2 alla variabile x del monomio m(x) = 4x6 dell’Esempio 5.4-1 otteniamo m(2) = 4 · 26 = 256. Sostituendo invece il numero −1 otteniamo m(−1) = 4 · (−1)6 = 4. √ 2. Sostituendo i numeri 3 e −2 rispettivamente alle variabili a√e b del monomio m(a, b) = 21 a2 b3 dell’Esempio 5.4-2 otteniamo m 3, −2 = √ 2 √ 1 3 · (−2)3 = −12. Sostituendo invece i numeri −2 e 3 2 · √ √ 3 √  3 = 6 3. otteniamo m −2, 3 = 21 · (−2)2 · 3. Consideriamo il monomio m = 5a4 xy 2 dell’Esempio 5.4-3. Sostituendo alle variabili alcuni numeri, abbiamo vari casi a seconda di quali lettere stiamo considerando come variabili e quali come costanti.

c 2014 Gennaro Amendola

Versione 1.0

Abbiamo scelto per la variabile a (quando è una variabile) sempre il valore π, per la variabile x (quando è una variabile) sempre il valore −3, e per la variabile y (quando è una variabile) sempre il valore 2.

Lezione 5. Polinomi

5–3

Variabili

Monomio

Numeri

Risultato

a, x, y a, x a, y x, y a x y

m(a, x, y) m(a, x) m(a, y) m(x, y) m(a) m(x) m(y) m()

π, −3, 2 π, −3 π, 2 −3, 2 π −3 2

m(π, −3, 2) = 5π 4 · (−3) · 22 = −60π 4 m(π, −3) = 5y 2 π 4 · (−3) = −15π 4 y 2 m(π, 2) = 5xπ 4 · 22 = 20xπ 4 m(−3, 2) = 5a4 · (−3) · 22 = −60a4 m(π) = 5xy 2 · π 4 m(−3) = 5a4 y 2 · (−3) = −15a4 y 2 m(2) = 5a4 x · 22 = 20a4 x m() = 5a4 xy 2

4. I monomi dell’Esempio 4 hanno grado 0, quindi il risultato di una sostituzione qualsiasi è il coefficiente, ossia rispettivamente 3 e ax. Osservazione 5.7. Se abbiamo un monomio di grado positivo m (a1 , a2 , . . . , an ), può succedere che sostituendo numeri α1 , α2 , . . . , αn alle variabili otteniamo 0, ossia m (α1 , α2 , . . . , αn ) = 0: ciò succede scegliendo αi = 0 per almeno un indice i ∈ {1, 2, . . . , n}.

Definizione 5.8. Il prodotto di due monomi, m1 e m2 , è il monomio m1 · m2 che ha come coefficiente il prodotto dei coefficienti di m1 ed m2 , e come parte letterale il prodotto delle variabili che formano le parti letterali di m1 ed m2 , ciascuna con il suo esponente, eccetto per le variabili che compaiono in entrambi i monomi il cui esponente in m1 · m2 è la somma degli esponenti in m1 ed m2 . Per ricorrenza, il prodotto di k monomi m1 , m2 , . . . , mk , con k > 2, è ottenuto facendo il prodotto dei primi k − 1 monomi, e poi facendo il prodotto del risultato e dell’ultimo monomio, mk .

Prodotto di monomi

Osservazione 5.9. Dalla definizione segue subito che il grado del prodotto di monomi è la somma dei gradi dei singoli monomi: ! k k X Y deg (mi ) . mi = deg

Se uno dei monomi è nullo, dobbiamo fare la somma di qualcosa con −∞: in questo caso, definiamo la somma −∞. Ciò è coerente con il fatto che se uno dei monomi è 0 anche il prodotto è 0, e quindi ha grado −∞.

i=1

i=1

Esempio 5.10. Consideriamo alcuni dei monomi dell’Esempio 5.4, m1 = 4x6 , m2 = 21 a2 b3 , m3 = 5a4 xy 2 e m4 = 3, che hanno rispettivamente grado 6, 5, 7 e 0. Abbiamo i seguenti prodotti. Prodotto

Grado

m1 · m2 = 2x6 a2 b3 m1 · m3 = 20a4 x7 y 2 m1 · m4 = 12x6 m2 · m3 = 52 a6 b3 xy 2 m2 · m4 = 23 a2 b3 m3 · m4 = 15a4 xy 2 m1 · m2 · m3 = 10a6 b3 x7 y 2 m1 · m2 · m4 = 6x6 a2 b3 m1 · m3 · m4 = 60a4 x7 y 2 6 3 2 m2 · m3 · m4 = 15 2 a b xy 6 m1 · m2 · m3 · m4 = 30a b3 x7 y 2

11 = 6 + 5 13 = 6 + 7 6=6+0 12 = 5 + 7 5=5+0 7=7+0 18 = 6 + 5 + 7 11 = 6 + 5 + 0 13 = 6 + 7 + 0 12 = 5 + 7 + 0 18 = 6 + 5 + 7 + 0

c 2014 Gennaro Amendola

Versione 1.0

Se non ci sono ambiguità o se non abbiamo bisogno di focalizzare l’attenzione sul prodotto omettiamo il simbolo “ ·”.

Lezione 5. Polinomi

5–4

Definizione 5.11. La divisione di un monomio m1 per un monomio m2 consiste nel trovare, se esiste ◮, un monomio m tale che m1 = m · m2 . In questo caso il monomio m1 è detto divisibile per il monomio m2 . Esempio 5.12. 1. Il monomio m1 = 5x7 è divisibile per il monomio m2 = −2x4 , infatti esiste il monomio m = − 25 x3 tale che 5x7 =  − 25 x3 · −2x4 ◮. Invece, non è divisibile per il monomio m′2 = 5x9 , ◮ avremmo infatti seesistesse un monomiom tale che 5x7 = m·5x9 ◮ deg 5x7 = deg(m)+deg 5x9 , ossia 7 = deg(m)+9 che è assurdo ◮ perché il grado di un monomio non può essere −2 ◮ ◮. √ 4 2 2. Il monomio m1 = 37 a5 b6 è divisibile 3a b , per il monomio m = 2 √ √

infatti esiste il monomio m = 73 ab4 tale che 73 a5 b6 = 73 ab4 · √ 4 2 3a b . Esso è divisibile anche per il monomio m′2 = b5 , infatti esiste il monomio m = 37 a5 b tale che 37 a5 b6 = 73 a5 b · b5 . Invece, non è divisibile per il monomio m′′2 = a6 b5 , infatti se esistesse un monomio m tale che 73 a5 b6 = m · a6 b5 , avremmo che il grado della variabile a del monomio m sarebbe −1, e ciò è assurdo. Esso non è 3 divisibile nemmeno per il monomio m′′′ 2 = abc , infatti se esistesse un monomio m tale che 37 a5 b6 = m · abc3 , avremmo che il grado della variabile c del monomio m sarebbe −3, e ciò è assurdo ◮.

3. Il monomio m1 = cz 4 t3 è divisibile per il monomio m2 = cz 4 t3 , infatti esiste il monomio costante m = 1 tale che cz 4 t3 = 1 · cz 4 t3 . Esso è divisibile anche per il monomio m′2 = 2czt, infatti esiste il monomio m = 21 z 3 t2 tale che cz 4 t3 = 21 z 3 t2 · 2czt. Invece, non è divisibile né per il monomio m′′2 = c2 , né per il monomio x2 . ◮ 2z 2 t

4. Il monomio m1 = è divisibile per il monomio m2 = 6, infatti esiste il monomio m = 31 z 2 t tale che z 2 t = 6 · 13 z 2 t. Il viceversa non è vero, infatti il monomio costante m2 non è divisibile per il monomio m1 . ◮ L’esempio precedente suggerisce che la divisibilità tra monomi dipende solamente dai gradi delle variabili. Osservazione 5.13. Siano m1 e m2 due monomi, con m2 6= 0. Dalla definizione di prodotto di monomi deduciamo facilmente i seguenti fatti, che ci dicono esattamente quando possiamo fare la divisione tra monomi. • Se ogni variabile di m2 è anche una variabile di m1 , e se l’esponente di ogni variabile in m2 è minore o uguale all’esponente della stessa variabile in m1 , allora la divisione di m1 per m2 può esser fatta ed il risultato è il monomio che ha come coefficiente il rapporto dei coefficienti di m1 ed m2 , e come parte letterale la parte letterale di m1 , in cui a ogni variabile che compare anche in m2 si sottrae l’esponente corrispondente in m2 (e si eliminano le variabili che hanno lo stesso esponente nei due monomi). • Viceversa, se possiamo fare la divisione di m1 per m2 , allora ogni variabile di m2 è anche una variabile di m1 , e l’esponente di ogni variabile in m2 è minore o uguale all’esponente della stessa variabile in m1 . c 2014 Gennaro Amendola

Versione 1.0

Divisione tra monomi ◮ “Se esiste” significa che può succedere che la divisione non possa essere fatta. Lo stesso succede per i numeri naturali: si può fare 10 diviso 5, ma non si può fare 10 diviso 3. ◮ Dobbiamo usare le parentesi perché due simboli di operazione non possono essere adiacenti: scrivere 5x7 = − 52 x3 · −2x4 è sbagliato. ◮ ◮ Questa è una dimostrazione per assurdo, anche se non lo diciamo esplicitamente: supponiamo per assurdo che esista m, e troviamo una contraddizione. ◮ ◮ ◮ Osservazione 5.2.

◮ Il monomio m1 non ha c come variabile.

◮ Per la stessa ragione (relativa al grado) degli esempi precedenti.

◮ Per la stessa ragione (relativa al grado) degli esempi precedenti.

Le variabili si comportano come i numeri primi per i numeri naturali. Ad esempio, 35 ·72 ·114 può essere diviso solo dai numeri della forma 3a · 7b · 11c , con 0 6 a 6 5, 0 6 b 6 2, 0 6 c 6 4.

Lezione 5. Polinomi

5–5

Esempio 5.14. Analizziamo i monomi dell’Esempio 5.12. 1. Il grado dell’unica variabile x di m1 è 7. Il monomio m1 è divisibile per il monomio m2 , la cui variabile x ha grado 4 6 7, e non per il monomio m′2 , la cui variabile x ha grado 9 > 7. 2. Il grado delle variabili a e b del monomio m1 è rispettivamente 5 e 6. Il monomio m1 è divisibile per il monomio m2 , le cui variabili a e b hanno grado rispettivamente 4 6 5 e 2 6 6, e per il monomio m′2 , la cui variabile b ha grado 5 6 6 ◮. Esso non è divisibile per il monomio m′′2 = a6 b5 , la cui variabile a ha grado 6 > 5 ◮, né per il monomio m′′′ 2 , che ha la variabile c che non è una variabile di m1 . 3. Il grado delle variabili c, z e t dei monomi m1 è rispettivamente 1, 4 e 3. Il monomio m1 è divisibile sia per il monomio m2 , le cui variabili c, z e t hanno grado rispettivamente 1 6 1, 4 6 4 e 3 6 3, e per il monomio m′2 , le cui variabili c, z e t hanno grado rispettivamente 1 6 1, 1 6 4 e 1 6 3. Invece, esso non è divisibile per il monomio m′′2 = c2 , la cui variabile c ha grado 2 > 1 ◮, né per il monomio x2 , la cui variabile x non è una variabile di m1 . 4. Il grado delle variabili in un monomio costante non nullo è 0, quindi un monomio costante divide ogni altro monomio ◮. Al contrario, un monomio costante non nullo non è divisibile per nessun altro ◮. monomio non costante ◮ Definizione 5.15. Due, o più, monomi sono detti simili se hanno la stessa parte letterale.

◮ Il grado della variabile b in m1 è 6. ◮ Il grado della variabile a in m1 è 5.

◮ Il grado della variabile c in m1 è 1.

◮ Le variabili, se ce ne sono, hanno sempre esponente positivo. ◮ ◮ Le variabili in un monomio non costante

hanno sempre esponente positivo. Monomi simili

Esempio 5.16. 1. Il monomio 3y 4 è simile al monomio 2y 4 , infatti entrambi hanno come parte letterale y 4 . Invece non è simile al monomio 3x4 , infatti la parte letterale di quest’ultimo è x4 , che è diversa da y 4 . √ 2. Il monomio 73 a3 c2 è simile al monomio 7a3 c2 , infatti entrambi hanno come parte letterale a3 c2 . Invece non è simile al monomio 4a2 c2 , infatti la parte letterale di quest’ultimo è a2 c2 , che è diversa da a3 c2 . 3. I tre monomi 4x3 , −2x3 e x3 sono simili, infatti hanno tutti come parte letterale x3 . 4. Consideriamo il monomio ax2 . Se la variabile è x (quindi a è una costante), abbiamo che esso è simile al monomio 5x2 , ma non al monomio 2x3 (la cui parte letterale è x3 , diversa da x2 ). Se invece le variabili sono sia a che x (quindi il coefficiente è 1), abbiamo che esso non è più simile al monomio 5x2 (la cui parte letterale è x2 , diversa da ax2 ), ma è simile al monomio −ax2 .

5. I monomi costanti sono tutti simili, come per esempio 4 e 23 .

Definizione 5.17. La somma di due monomi simili, m1 e m2 , è il monomio m1 + m2 che ha come coefficiente la somma dei coefficienti di m1 ed m2 , e come parte letterale la stessa di m1 ed m2 ◮. Per ricorrenza, la somma di k monomi simili m1 , m2 , . . . , mk , con k > 2, è ottenuta facendo la somma dei primi k − 1 monomi, e poi facendo la somma del risultato e dell’ultimo monomio, mk . c 2014 Gennaro Amendola

Somma di monomi simili L’addizione di monomi simili può essere pensata come un’applicazione della proprietà distributiva della moltiplicazione rispetto all’addizione. Infatti, è come mettere in evidenza la parte letterale dei due monomi (che è la stessa perché sono simili).

Versione 1.0 ◮ Tanto è uguale.

Lezione 5. Polinomi

5–6

Esempio 5.18. Sommiamo i monomi simili dell’Esempio 5.16. Somma

Parte letterale

4 = 5y 4 3y 4 + 2y√ √  3 2 3 3 2 3 3 2 7 a c + 7a c = 7 + 7 a c 4x3 + (−2x3 ) + x3 = 3x3 ax2 + 5x2 = (a + 5)x2 ax2 + −7ax2 = −6ax2 4 + 23 = 14 3

y4 a3 c2 x3 x2 ax2

Polinomi Definiamo i polinomi, che ovviano al fatto che la somma di monomi non simili non si può fare. Definizione 5.19. Un polinomio è la somma di monomi non simili. ◮ Ciascun monomio è detto termine. Il termine di grado 0 è detto termine noto. Il polinomio formato solo dal monomio nullo è detto polinomio nullo ed è indicato semplicemente con 0. Il grado di un polinomio p è il grado massimo dei suoi termini, ed è indicato con

Polinomio ◮ La somma è astratta: non possiamo calcolarla, perché i monomi non sono simili, e la lasciamo indicata. Se nella somma ci sono monomi simili, facciamo la somma come abbiamo visto nella Definizione 5.17.

Termine

deg(p).

Termine noto Polinomio nullo

L’insieme dei polinomi in una variabile (ad esempio, x) con coefficienti in un insieme (ad esempio, I) è indicato con

Grado deg(·)

I[x] ,

I[·]

e, se le variabili sono più di una (ad esempio, x1 , x2 , . . . , xn ), con I[x1 , x2 , . . . , xn ] .

L’insieme dei polinomi con grado minore o uguale a m è indicato con I6m[x]

o

I6· [·]

I6m[x1 , x2 , . . . , xn ]

(a seconda delle variabili).

Esempio 5.20. 1. Il polinomio 8x3 + 15x2 − x + 2 nella variabile x è formato da quattro termini: i monomi 8x3 , 15x2 , −x e 2. Ha grado 3, infatti il termine di grado massimo è 8x3 . Se pensiamo i coefficienti in Z, il polinomio appartiene all’insieme Z[x]; se invece li pensiamo in R, esso appartiene all’insieme R[x]. √ 2. Il polinomio 21 a4 b5 − 3a6 b nelle variabili a e b è formato da due √ termini: i monomi 21 a4 b5 e − 3a6 b. Ha grado 9, infatti il termine di grado massimo è 21 a4 b5 . Un coefficiente non appartiene a Q ◮, quindi il polinomio non appartiene all’insieme Q[a, b]; invece, visto che tutti i coefficienti appartengono ad R, il polinomio appartiene all’insieme R[a, b]. 3. Il polinomio x4 yz 3 −xyz 5 +2z 3 può essere visto come un polinomio in modi diversi a seconda di quali lettere scegliamo come variabili.

c 2014 Gennaro Amendola

Versione 1.0





3.

Nella penultima colonna abbiamo indicato il termine di grado massimo, nell’ultima l’insieme a cui appartengono i polinomi, se pensiamo i coefficienti come numeri reali.

Lezione 5. Polinomi

5–7

Variabili

Polinomio

x, y, z x, y x, z y, z x y z

x4 yz 3

− xyz 5

Termini 2z 3

+ + 2z 3 4 3 5 yx z − yxz + 2z 3 −xyz 5 + x4 yz 3 + 2z 3 yz 3 x4 − yz 5 x + 2z 3 3 x4 z 3 − xz 5 y + 2z  −xyz 5 + x4 y + 2 z 3 x4 yz 3 − xyz 5 + 2z 3 z 3 x4 y

− z 5 xy

x4 yz 3 , z 3 x4 y,

−xyz 5 ,

−z 5 xy,

Grado 2z 3 2z 3

yx4 z 3 , −yxz 5 , 2z 3 −xyz 5 , x4 yz 3 , 2z 3 yz 3 x4 , −yz 5x, 2z 3 3 x4 z 3 − xz 5 y, 2z  −xyz 5 , x4 y + 2 z 3 x4 yz 3 − xyz 5 + 2z 3

8 = deg 5 = deg 7 = deg 6 = deg 4 = deg 1 = deg 5 = deg 0 = deg

4. Il polinomio nullo 0 è formato da un solo termine (il monomio nullo) e ha grado −∞. Esso può essere pensato come un polinomio rispetto a qualsiasi insieme di variabili.

−x4 yz 3



  yx4 z 3  −xyz 5 yz 3 x4  (x4 z 3 − xz 5 )y  −xyz 5  x4 yz 3 − xyz 5 + 2z 3 z 3 x4 y

Insieme R[x, y, z] R[x, y] R[x, z] R[y, z] R[x] R[y] R[z] qualsiasi

Notazione 5.21. Oltre ad usare una semplice lettera (ad esempio, p), se vogliamo indicare esplicitamente le variabili, utilizziamo p (a1 , a2 , . . . , an ) . Sostituendo numeri α1 , α2 , . . . , αn alle variabili, indicheremo con p (α1 , α2 , . . . , αn ) il risultato. Osservazione 5.22. levante.

• L’ordine dei monomi nella somma non è ri-

• Può succedere che sostituendo numeri α1 , α2 , . . . , αn alle variabili di un polinomio p (a1 , a2 , . . . , an ) otteniamo 0, ossia p (α1 , α2 , . . . , αn ) = 0. Al contrario di quanto succede per i monomi di grado positivo ◮, ◮ Osservazione 5.7. ciò può succedere anche con valori non nulli dei numeri α∗ .

Esempio 5.23. 1. Sostituendo il numero −2 alla variabile x del polinomio p(x) = 8x3 + 15x2 − x + 2 dell’Esempio 5.20-1 otteniamo p(−2) = 8 · (−2)3 + 15 · (−2)2 − (−2) + 2 = −64 + 60 + 2 + 2 = 0. √  √ 3 √ 2 + Sostituendo invece il numero 2 otteniamo p 2 = 8 · √ √ √ √ 2 √ 2 − 2 + 2 = 16 2 + 30 − 2 + 2 = 15 2 + 32. 15 · 2. Sostituendo i numeri 2 e 12 rispettivamente alle variabili a e b del √ polinomio p(a, b) = 12 a4 b5 − 3a6 b dell’Esempio 5.20-2 otteniamo √  5 √ p 2, 21 = 21 · 24 · 12 − 3 · 26 · 12 = 14 − 32 3. Sostituendo invece √ √ √ √ 4  i numeri 4 3 e −2 otteniamo p 4 3, −2 = 12 · 4 3 · (−2)5 − 3 · √ 6 4 3 · (−2) = −48 + 18 = −30. 3. Consideriamo il polinomio p = x4 yz 3 − xyz 5 + 2z 3 dell’Esempio 5.20-3. Sostituendo alle variabili alcuni numeri, abbiamo vari casi a seconda di quali lettere stiamo considerando come variabili e quali come costanti.

c 2014 Gennaro Amendola

Versione 1.0

Abbiamo scelto per la variabile x (quando è considerata una variabile) sempre il valore π, per la variabile y (quando è considerata una variabile) sempre il valore 3, e per la variabile z (quando è considerata una variabile) sempre il valore −2.

Lezione 5. Polinomi

5–8

Variabili

Polinomio

Numeri

Risultato

x, y, z

p(x, y, z)

π, 3, −2

x, y x, z

p(x, y) p(x, z)

π, 3 π, −2

y, z

p(y, z)

3, −2

x y z

p(x) p(y) p(z)

π 3 −2

p(π, 3, −2) = π 4 · 3 · (−2)3 − π · 3 · (−2)5 + 2 · (−2)3 = = −24π 4 + 96π − 16  p(π, 3) = z 3 · π 4 · 3 − z 5 · π · 3 + 2z 3 = −3πz 5 + 3π 4 + 2 z 3 p(π, −2) = y · π 4 · (−2)3 − y · π · (−2)5 + 2 · (−2)3 = = −8π 3 + 32 πy − 16 p(3, −2) = −x · 3 · (−2)5 + x4 · 3 · (−2)3 + 2 · (−2)3 = = −24x4 + 96x − 16 p(π) = yz 3 · π 4 − yz5 · π + 2 · π 3 = −πyz 5 + π 4 yz 3 + 2π 3 p(3) = x4 z 3 − xz 5 · 3 + 2z 3 = 3x4 z 3 − 3xz 5 + 2z 3 p(−2) = −xy · (−2)5 + x4 y + 2 · (−2)3 = = −8x4 y + 32xy − 16 p() = x4 yz 3 − xyz 5 + 2z 3

p()

4. Qualsiasi valore sostituiamo alle variabili del polinomio nullo p = 0, che può essere pensato come un polinomio rispetto a qualsiasi insieme di variabili ◮, otteniamo sempre 0. Notazione 5.24. Se al polinomio p (a1 , a2 , . . . , an ) manca un termine di grado k 6 deg(p), nelle variabili a1 , a2 , . . . , an , questo termine sarà considerato contenuto nel polinomio con coefficiente 0. Definizione 5.25. La somma di due polinomi, p1 e p2 , è il polinomio ◮ p1 + p2 ottenuto sommando i monomi di p1 e p2 . ◮ Per ricorrenza, la somma di k polinomi p1 , p2 , . . . , pk , con k > 2, è ottenuta facendo la somma dei primi k − 1 polinomi, e poi facendo la somma del risultato e dell’ultimo polinomio, pk . Osservazione 5.26. Dalla definizione segue subito che il grado della somma di polinomi è minore o uguale al massimo grado dei singoli polinomi.

◮ Esempio 5.20-4.

Questa è una finezza, ma, strettamente parlando, il polinomio p(x) = 2x2 − 3 non ha il termine con parte letterale x: con questa notazione possiamo dire che il polinomio p(x) contiene il termine con parte letterale x con coefficiente 0. Somma di polinomi ◮ ◮ Se ci sono monomi simili, la somma viene fatta utilizzando la Definizione 5.17.

Può essere minore perché i termini di grado massimo si potrebbero elidere, come vedremo nell’esempio sotto.

Esempio 5.27. 1. La somma dei due polinomi p1 = 5x4 −x3 +3x−1 e p2 = 3x3 + x − 4 è p1 +p2 = 5x4 +(−1+3)x3 +(3+1)x+(−1−4) = 5x4 +2x3 +4x−5.

Abbiamo deg (p1 ) = 4, deg (p2 ) = 3 e deg (p1 + p2 ) = 4, quindi deg (p1 + p2 ) è minore o uguale al massimo grado dei due polinomi, ossia deg (p1 ). √ 2. La somma dei due polinomi p1 = a3 b2 +2a2 b−3b2 e p2 = 2a3 b2 + a2 b − 5b è   √  √  p1 +p2 = 1 + 2 a3 b2 +(2+1)a2 b−3b2 −5b = 1 + 2 a3 b2 +3a2 b−3b2 −5b. Abbiamo deg (p1 ) = 5, deg (p2 ) = 5 e deg (p1 + p2 ) = 5, quindi deg (p1 + p2 ) è minore o uguale al massimo grado dei due polinomi, ossia deg (p1 ) = deg (p2 ).

3. La somma dei due polinomi p1 = −3x2 − x + 1 e p2 = 3x2 + 4x + 7 è p1 + p2 = (−3 + 3)x2 + (−1 + 4)x + (1 + 7) = 3x + 8.

c 2014 Gennaro Amendola

Versione 1.0

In questo caso il grado della somma è minore di quello degli addendi.

Lezione 5. Polinomi

5–9

Abbiamo deg (p1 ) = deg (p2 ) = 2 ma deg (p1 + p2 ) = 1: comunque sia, abbiamo sempre che deg (p1 + p2 ) è minore o uguale al massimo grado dei due polinomi, ossia deg (p1 ) = deg (p2 ). 4. La somma di un qualsiasi polinomio p1 con il polinomio nullo p2 = 0è p1 + p2 = p1 + 0 = p1 , infatti non sommiamo nessun termine ai termini di p1 . Abbiamo deg (p1 ) = deg (p1 + p2 ) e deg (p2 ) = −∞: comunque sia, abbiamo sempre che deg (p1 + p2 ) è minore o uguale al massimo grado dei due polinomi, ossia deg (p1 ). 5. La somma dei tre polinomi p1 = x4 + 2x3 − 1, p2 = x5 − x3 + 4 e p3 = 3x4 + 5x3 + 2x2 è

Stipuliamo che −∞ < n per tutti gli n ∈ N.

p1 +p2 +p3 = x5 +(1+3)x4 +(2−1+5)x3 +2x2 +(−1+4) = x5 +4x4 +6x3 +2x2 +3. Abbiamo deg (p1 ) = 4, deg (p2 ) = 5, deg (p3 ) = 4 e deg (p1 + p2 + p3 ) = 5, quindi deg (p1 + p2 + p3 ) è minore o uguale al massimo grado dei tre polinomi, ossia deg (p2 ). Definizione 5.28. La sottrazione da un polinomio p1 di un polinomio p2 , è il polinomio p1 − p2 ottenuto sommando i monomi di p1 con i monomi di p2 , cambiati di segno. ◮ Esempio 5.29. Consideriamo i primi quattro punti dell’Esempio 5.27, e facciamo le sottrazioni p1 − p2 .  1. 5x4 − x3 + 3x − 1 − 3x3 + x − 4 = 5x4 + (−1 − 3)x3 + (3 − 1)x + (−1 + 4) = 5x4 − 4x3 + 2x + 3. √  √ 3 2  2a b + a2 b − 5b = 1 − 2 a3 b2 + (2 − 2. a3 b2 + 2a2 b − 3b2 − √  1)a2 b − 3b2 + 5b = 1 − 2 a3 b2 + a2 b − 3b2 + 5b.  3. −3x2 − x + 1 − 3x2 + 4x + 7 = (−3 − 3)x2 + (−1 − 4)x + (1 − 7) = −6x2 − 5x − 6.

Sottrazione di polinomi La vera definizione sarebbe quella di trovare un polinomio q (che è indicato con p1 − p2 ) tale che p1 = p2 + q. Questo non può essere fatto sempre: ad esempio, se consideriamo i polinomi in N[x], non possiamo fare la sottrazione di 5x da 3x. Per i polinomi che vedremo potremo sempre fare la sottrazione. ◮ Se ci sono monomi simili, la somma viene fatta utilizzando la Definizione 5.17.

4. p1 − 0 = p1 per ogni p1 .

Definizione 5.30. Il prodotto di due polinomi, p1 e p2 , è il polinomio p1 ·p2 ottenuto sommando i prodotti di ciascun monomio di p1 con ciascun monomio di p2 . ◮ Per ricorrenza, il prodotto di k polinomi p1 , p2 , . . . , pk , con k > 2, è ottenuto facendo il prodotto dei primi k − 1 polinomi, e poi facendo il prodotto del risultato e dell’ultimo polinomio. Osservazione 5.31. Non è difficile dimostrare (ma evitiamo di farlo perché la dimostrazione è troppo tecnica) che il grado del prodotto di polinomi è la somma dei gradi dei singoli polinomi: ! k k X Y deg (pi ) . pi = deg i=1

c 2014 Gennaro Amendola

i=1

Versione 1.0

Prodotto di polinomi La moltiplicazione di polinomi può essere pensata come un’applicazione della proprietà distributiva della moltiplicazione rispetto all’addizione. Se non ci sono ambiguità o se non abbiamo bisogno di focalizzare l’attenzione sul prodotto ometteremo il simbolo “ ·”.

◮ Se ci sono monomi simili, la somma viene fatta utilizzando la Definizione 5.17.

Come per i monomi, se uno dei monomi è nullo, dobbiamo fare la somma di qualcosa con −∞: in questo caso, definiamo la somma −∞. Ciò è coerente con il fatto che se uno dei polinomi è 0 anche il prodotto è 0, e quindi ha grado −∞.

Lezione 5. Polinomi

5–10

Esempio 5.32. 1. Il prodotto tra i polinomi p1 = x2 + 3x − 2 e p2 = −x + 7 è  p1 · p2 = x2 + 3x − 2 · (−x + 7) =

= x2 · (−x) + 3x · (−x) + (−2) · (−x) + x2 · 7 + 3x · 7 + (−2) · 7 =

= −x3 − 3x2 + 2x + 7x2 + 21x − 14 = = −x3 + 4x2 + 23x − 14.

Abbiamo che deg (p1 ) = 2, deg (p2 ) = 1 e deg (p1 · p2 ) = 3, quindi deg (p1 · p2 ) = deg (p1 ) + deg (p2 ).

2. Il prodotto tra i polinomi p1 = ab2 + 1 e p2 = a2 − b è   p1 · p2 = ab2 + 1 · a2 − b =

= ab2 · a2 + 1 · a2 + ab2 · (−b) + 1 · (−b) =

= a3 b2 + a2 − ab3 − b.

Abbiamo che deg (p1 ) = 3, deg (p2 ) = 2 e deg (p1 · p2 ) = 5, quindi deg (p1 · p2 ) = deg (p1 ) + deg (p2 ).

3. Il prodotto tra i polinomi p1 = x3 − 1, p2 = 2x4 − x e p3 = 3x − 1 è   p1 · p2 · p3 = x3 − 1 · 2x4 − x · (3x − 1) =  = x3 · 2x4 + (−1) · 2x4 + x3 · (−x) + (−1) · (−x) · (3x − 1) =  = 2x7 − 3x4 + x · (3x − 1) =   = 2x7 · 3x + −3x4 · 3x + x · 3x + 2x7 · (−1) + −3x4 · (−1) + x · (−1) = = 6x8 − 2x7 − 9x5 + 3x4 + 3x2 − x.

Abbiamo che deg (p1 ) = 3, deg (p2 ) = 4, deg (p2 ) = 1 e deg (p1 · p2 ) = 8, quindi deg (p1 · p2 ) = deg (p1 ) + deg (p2 ) + deg (p3 ).

5.2

Polinomi in una variabile

In questa sezione avremo bisogno di fare sottrazioni e divisioni con i coefficienti, quindi consideriamo solo polinomi su numeri su cui ciò può essere fatto: ad esempio, Q, R, C. Definizione 5.33. Un polinomio di grado n dipendente da una sola variabile x ◮ è detto in una variabile e ha la forma p(x) = an xn + an−1 xn−1 + · · · + a1 x + a0 ,

◮. con an 6= 0 ◮

Definizione 5.34. Dati due polinomi in una variabile p(x) e d(x), nella stessa variabile, con deg(d) 6 deg(p) e d(x) diverso dal polinomio nullo, la divisione di p(x) per d(x) consiste nel trovare due polinomi q(x) e r(x) ◮, con deg(r) < deg(d), tali che

Qualcosa di ciò che diremo vale, con opportune restrizioni, anche per polinomi su un qualsiasi tipo di numeri, ma per non appesantire la trattazione ci limitiamo solo ai polinomi su numeri su cui si può fare la sottrazione e la divisione. ◮ La variabile non deve essere necessariamente x: è possibile scegliere una variabile qualsiasi. ◮ ◮ Non tutti i coefficienti ai , con 0 6 i < n, sono necessariamente diversi da 0 (Notazione 5.24). Divisione tra polinomi Funziona come la divisione tra interi, non come la divisione tra numeri reali. ◮ Sempre nella stessa variabile.

p(x) = q(x) · d(x) + r(x).

I polinomi p(x), d(x), q(x), r(x) sono detti rispettivamente dividendo, divisore, quoziente, resto. Il polinomio p(x) è detto divisibile per il polinomio d(x) se il resto c 2014 Gennaro Amendola

Versione 1.0

Dividendo, divisore, quoziente, resto Divisibilità

Lezione 5. Polinomi

5–11

r(x) della divisione di p(x) per d(x) è 0, ossia si ha p(x) = q(x) · d(x).

Esempio 5.35. 1. Facendo la divisione del polinomio dividendo 5 p(x) = 2x − 3x4 + 9x3 + 2x + 14 per il polinomio divisore d(x) = x2 −x+3 otteniamo il polinomio quoziente q(x) = 2x3 −x2 +2x+5 e il polinomio resto r(x) = x − 1, infatti abbiamo   2x3 − x2 + 2x + 5 · x2 − x + 3 +(x−1) = 2x5 −3x4 +9x3 +2x+14.

Per ora non sappiamo trovare il quoziente e il resto, ma sappiamo verificare che quelli dati sono effettivamente il quoziente e il resto.

Il polinomio 2x5 −3x4 +9x3 +2x+14 non è divisibile per x2 −x+3, perché il resto non è 0.

2. Facendo la divisione del polinomio dividendo p(x) = 2x3 − 32 x2 − 4x+3 per il polinomio divisore d(x) = 4x−3 otteniamo il polinomio quoziente q(x) = 12 x2 − 1 e il polinomio resto r(x) = 0, infatti abbiamo   1 2 3 x − 1 · (4x − 3) + 0 = 2x3 − x2 − 4x + 3. 2 2 In questo caso abbiamo che 2x3 − 23 x2 − 4x + 3 è divisibile per 4x − 3, perché il resto è 0.

Algoritmo 5.36 (Divisione tra polinomi). Dati due polinomi in una variabile p(x) = pn xn + pn−1 xn−1 + · · · + p1 x + p0 e d(x) = dm xm + dm−1 xm−1 + · · · + d1 x + d0 , nella stessa variabile, con deg(d) 6 deg(p), ossia m 6 n, e d(x) diverso dal polinomio nullo, i passi da effettuare sono gli stessi dell’algoritmo di divisione per i numeri naturali. 1. Si scrivono i due polinomi p(x) e d(x), scrivendo esplicitamente anche i termini di p(x) con coefficiente nullo. pn xn

+pn−1 xn−1

+pn−2 xn−2

+···

Algoritmo di divisione tra polinomi

dm xm + dm−1 xm−1 + · · ·

Nella casella in basso a destra alla fine si troverà il quoziente della divisione. 2. Si divide il termine di grado massimo di p(x), ossia pn xn , per il termine di grado massimo di d(x), ossia dm xm , ottenendo il termine n n−m qn−mxn−m = dpm x , e si scrive il monomio trovato nella casella in basso a destra. pn x n

+pn−1 xn−1

+pn−2 xn−2

+···

dm xm + dm−1 xm−1 + · · · pn n−m x dm

3. Si moltiplica il termine trovato per il polinomio d(x) e si scrive il risultato sotto p(x), incolonnando ogni termine sotto il termine con lo stesso grado. pn xn

+pn−1 xn−1

+pn−2 xn−2

n xn dm dpm

n +dm−1 dpm xn−1

n +dm−2 dpm xn−2

c 2014 Gennaro Amendola

+··· +···

dm xm + dm−1 xm−1 + · · · pn n−m x dm

Versione 1.0

Lezione 5. Polinomi

5–12

4. Si sottrae il polinomio trovato da p(x). pn x n

+pn−1 xn−1

+pn−2 xn−2

+···

n dm dpm xn 

n +dm−1 dpm xn−1   n pn−1 − dm−1 dpm xn−1

n +dm−2 dpm xn−2   n + pn−2 − dm−2 dpm xn−2

+···

dm xm + dm−1 xm−1 + · · · pn n−m dm x

+···

5. Se il grado del polinomio trovato è maggiore o uguale al grado di d(x), ossia m, si torna al Passo 2 considerando il polinomio appena trovato invece del polinomio p(x) (il monomio che si troverà andrà aggiunto al monomio o ai monomi già scritti nella casella in basso a destra). Quando il grado del polinomio trovato è minore del grado di d(x), ossia m, l’algoritmo finisce: l’ultimo polinomio trovato nella casella a sinistra è il resto della divisione. pn xn

n dm dpm xn 



+pn−1 xn−1

+pn−2 xn−2

n +dm−1 dpm xn−1  n xn−1 pn−1 − dm−1 dpm

n +dm−2 dpm xn−2   n + pn−2 − dm−2 dpm xn−2

+···

dm xm + dm−1 xm−1 + · · ·

+···

q(x)

+··· .. . r(x)

Esempio 5.37. 1. L’algoritmo di divisione tra polinomi applicato ai polinomi p(x) = 2x5 − 3x4 + 9x3 + 2x + 14 e d(x) = x2 − x + 3 dell’Esempio 5.35-1, si compone dei seguenti passi. Scriviamo i due polinomi p(x) e d(x), scrivendo esplicitamente anche i termini di p(x) con coefficiente nullo. 2x5

−3x4

+9x3

+0x2

+2x +14

x2 − x + 3

Dividiamo 2x5 per x2 ottenendo il termine 2x3 . 2x5

−3x4

+9x3

+0x2

+2x +14

x2 − x + 3 2x3

Moltiplichiamo il termine trovato, 2x3 , per il polinomio x2 − x + 3 e scriviamo il risultato sotto p(x), incolonnando ogni termine sotto il termine con lo stesso grado. 2x5 2x5

−3x4 −2x4

+9x3 +6x3

+0x2

+2x +14

x2 − x + 3 2x3

Sottraiamo il polinomio trovato da p(x). 2x5 2x5 

−3x4 −2x4 −x4

+9x3 +6x3 +3x3

+0x2

+2x

+14

+0x2

+2x

+14

x2 − x + 3 2x3

Ripetiamo i passi appena fatti utilizzando il polinomio −x4 +3x3 + 2x + 14 invece di p(x): dividiamo −x4 per x2 ottenendo −x2 , moltiplichiamo −x2 per x2 − x + 3, scriviamo il risultato sotto c 2014 Gennaro Amendola

Versione 1.0

Lezione 5. Polinomi

5–13

−x4 + 3x3 + 2x + 14, e sottraiamo il polinomio trovato da −x4 + 3x3 + 2x + 14. 2x5 2x5 

−3x4 −2x4 −x4 −x4 

+9x3 +6x3 +3x3 +x3 2x3

−3x4 −2x4 −x4 −x4 

+9x3 +6x3 +3x3 +x3 2x3 2x3 

+0x2

+2x

+14

+0x2 −3x2 +3x2

+2x

+14

+2x

+14

x2 − x + 3 2x3 − x2

Ripetiamo i passi appena fatti utilizzando il polinomio 2x3 + 3x2 + 2x + 14: dividiamo 2x3 per x2 ottenendo 2x, moltiplichiamo 2x per x2 − x + 3, scriviamo il risultato sotto 2x3 + 3x2 + 2x + 14, e sottraiamo il polinomio trovato da 2x3 + 3x2 + 2x + 14. 2x5 2x5 

+0x2

+2x

+14

+0x2 −3x2 +3x2 −2x2 5x2

+2x

+14

x2 − x + 3 2x3 − x2 + 2x

+2x +14 +6x −4x +14

Ripetiamo i passi appena fatti utilizzando il polinomio 5x2 −4x+14: dividiamo 5x2 per x2 ottenendo 5, moltiplichiamo 5 per x2 − x + 3, scriviamo il risultato sotto 5x2 − 4x + 14, e sottraiamo il polinomio trovato da 5x2 − 4x + 14. 2x5 2x5 

−3x4 −2x4 −x4 −x4 

+9x3 +6x3 +3x3 +x3 2x3 2x3 

+0x2

+2x

+14

+0x2 −3x2 +3x2 −2x2 5x2 5x2 

+2x

+14

x2 − x + 3 2x3 − x2 + 2x + 5

+2x +14 +6x −4x +14 −5x +15 x −1

Abbiamo trovato un polinomio di grado minore del grado del divisore (1 < 2), quindi l’algoritmo finisce. Nella casella in basso a destra abbiamo il quoziente della divisione, 2x3 − x2 + 4x + 5, mentre l’ultimo polinomio trovato nella casella a sinistra, x − 1, è il resto della divisione. 2x5 2x5 

−3x4 −2x4 −x4 −x4 

c 2014 Gennaro Amendola

+9x3 +6x3 +3x3 +x3 2x3 2x3 

+0x2

+2x +14

+0x2 −3x2 +3x2 −2x2 5x2 5x2 

+2x +14

x2 − x + 3 2x3 − x2 + 2x + 5

+2x +14 +6x −4x +14 −5x +15 x −1 Versione 1.0

Lezione 5. Polinomi

5–14

2. L’algoritmo di divisione tra polinomi applicato ai polinomi p(x) = 2x3 − 32 x2 − 4x + 3 e d(x) = 4x − 3 dell’Esempio 5.35-2, si compone dei seguenti passi. Scriviamo i due polinomi p(x) e d(x). 2x3

− 23 x2

−4x +3

4x − 3

Dividiamo 2x3 per 4x ottenendo 21 x2 , moltiplichiamo 21 x2 per 4x − 3, scriviamo il risultato sotto 2x3 − 32 x2 − 4x + 3, e sottraiamo il polinomio trovato da 2x3 − 23 x2 − 4x + 3. 2x3 2x3 

− 23 x2 − 32 x2 

2x3 2x3 

− 23 x2 3 2 2x 

−4x

+3

−4x

+3

4x − 3 1 2 x 2

Ripetiamo i passi appena fatti utilizzando il polinomio −4x + 3: dividiamo −4x per 4x ottenendo −1, moltiplichiamo −1 per 4x − 3, scriviamo il risultato sotto −4x + 3, e sottraiamo il polinomio trovato da −4x + 3. −4x

+3

−4x −4x 

+3 +3 

4x − 3 1 2 2x − 1

Nella casella in basso a destra abbiamo il quoziente della divisione, 1 2 2 x − 1, mentre nella casella a sinistra si annulla tutto, quindi l’ultimo polinomio trovato, 0, è il resto della divisione. 2x3 2x3 

− 23 x2 3 2 2x 

−4x +3

4x − 3 1 2 x −1 2

−4x +3 −4x +3  0

Proposizione 5.38. Dati due polinomi in una variabile p(x) e d(x), nella stessa variabile, con deg(d) 6 deg(p) e d(x) diverso dal polinomio nullo, la divisione di p(x) per d(x) può essere fatta e il suo risultato, il quoziente q(x) e il resto r(x), è univocamente determinato. Non daremo la dimostrazione di questa proposizione. Un caso particolare è quello in cui il divisore è un polinomio di grado 1, ossia è della forma x − α con α costante. ◮

Teorema 5.39 (del resto). Il resto della divisione di un polinomio in una variabile p(x) per un polinomio d(x) = x − α, con α costante, è uguale a p(α). Dimostrazione. Facendo la divisione di p(x) per x − α otteniamo p(x) = q(x) · (x − α) + r(x), c 2014 Gennaro Amendola

Versione 1.0

◮ In questa situazione abbiamo una sola variabile, x: la lettera α non rappresenta una variabile, bensì rappresenta un numero arbitrario, e il polinomio è in una variabile. Ad esempio, x − 1, x + 3, x − 0 = x.

Teorema del resto

Lezione 5. Polinomi

5–15

con deg(r) < 1, ossia r(x) è formato solo dal termine noto r(x) = r0 . Inoltre, abbiamo p(α) = q(α) · (α − α) + r(α) = q(α) · 0 + r0 = r0 .

La dimostrazione è completa.

Definizione 5.40. Dato un polinomio in una variabile p(x), un numero α è detto zero di p(x) se

Zero di un polinomio

p(α) = 0, ossia se, sostituendolo alla variabile, si ottiene 0, ossia se α è una soluzione dell’equazione p(x) = 0. Esempio 5.41. 1. Consideriamo il polinomio p(x) = x3 −2x2 −x+2. I numeri 1, −1 e 2 sono zeri di p(x), infatti abbiamo rispettivamente p(1) = 0, p(−1) = 0 e p(2) = 0. I numeri 0 e −2 non sono zeri di p(x), infatti abbiamo rispettivamente p(0) = 2 e p(−2) = −12. 2. Consideriamo il polinomio p(x) = x3 − 5x2 + 3x + 9. I numeri −1 e 3 sono zeri di p(x), infatti √ abbiamo rispettivamente p(−1) = 0 e zeri p(3) = 0. I numeri 1 e 2 non √ sono √ di p(x), infatti abbiamo  rispettivamente p(1) = 8 e p 2 = 5 2 − 1 ◮.

3. Consideriamo il polinomio p(x) = 2x3 −x2 . I numeri 0 e 12 sono zeri di p(x), infatti abbiamo rispettivamente p(0) = 0 e p 12 = 0. I numeri 1 e 2 non sono zeri di p(x), infatti abbiamo rispettivamente p(1) = 1 e p(2) = 12. ◮, ma ne ha complessi: 4. Il polinomio p(x) = x2 + 1 non ha zeri reali ◮ i numeri i e −i sono zeri di p(x), infatti abbiamo rispettivamente p(i) = 0 e p(−i) = 0.

Teorema 5.42 (Ruffini). Dato un polinomio in una variabile p(x), un numero α è uno zero di p(x) se e solo se p(x) è divisibile per x − α.

Per ora, non possiamo dire se il polinomio x3 −2x2 −x+2 ha altri zeri: sappiamo solo che ±1 e 2 sono zeri. Vedremo tra poco che non ce ne sono altri.

Anche qui non possiamo dire se il polinomio x3 − 5x2 + 3x + 9 ha altri zeri: sappiamo solo che −1 e 3 sono zeri. Vedremo tra poco che non ce ne sono altri. √ ◮ Che non è 0, altrimenti avremmo 2 = 1 ∈ Q. 5 Questa volta possiamo dire che il polinomio 2x3 − x2 non ha altri zeri. Infatti, l’equazione 2x3 − x2 = 0 può essere riscritta come x2 (2x − 1) = 0; un prodotto di due numeri è nullo se e solo se almeno uno di essi è nullo, cosicché abbiamo x2 = 0 o 2x − 1 = 0, quindi le uniche soluzioni sono x = 0 e x = 12 . ◮ 1 > 0. x2 + |{z} ◮ |{z} >0

>0

Teorema di Ruffini

Dimostrazione. Per il Teorema del resto ◮ abbiamo che p(α) = 0 se e solo se il resto della divisione di p(x) per x − α è 0. Ciò significa che p(x) è divisibile per x − α ◮.

◮ Teorema 5.39.

Definizione 5.43. Siano p(x) un polinomio in una variabile e sia α un suo zero. Il massimo esponente m tale che p(x) è divisibile per (x − α)m è detto molteplicità di α.

Molteplicità polinomio

Esempio 5.44. Consideriamo i polinomi dell’Esempio 5.41. 1. Abbiamo p(x) = x3 − 2x2 − x + 2 = (x − 1)(x + 1)(x − 2) ◮:

• p(x) è divisibile per x − 1 e lo zero x = 1 ha molteplicità 1, • p(x) è divisibile per x + 1 e lo zero x = −1 ha molteplicità 1, • p(x) è divisibile per x − 2 e lo zero x = 2 ha molteplicità 1.

2. Abbiamo p(x) = x3 − 5x2 + 3x + 9 = (x + 1)(x − 3)2 ◮:

• p(x) è divisibile per x + 1 e lo zero x = −1 ha molteplicità 1, • p(x) è divisibile per (x − 3)2 e lo zero x = 3 ha molteplicità 2.  3. Abbiamo p(x) = 2x3 − x2 = 2x2 x − 12 :

c 2014 Gennaro Amendola

Versione 1.0

◮ Definizione 5.34.

di

uno

zero

di

un

Per il Teorema di Ruffini p(x) è divisibile almeno per (x − α)1 . ◮ Vedremo tra poco come abbiamo scritto il polinomio x3 − 2x2 − x + 2 come prodotto di polinomi di grado 1.

◮ Vedremo tra poco come abbiamo scritto il polinomio x3 − 5x2 + 3x + 9 come prodotto di polinomi di grado 1.

Lezione 5. Polinomi

5–16

• p(x) è divisibile per x2 e lo zero x = 0 ha molteplicità 2, • p(x) è divisibile per x − 12 e lo zero x = 12 ha molteplicità 1.

4. Abbiamo p(x) = x2 + 1 = (x − i)(x + i):

• p(x) è divisibile per (x − i) e lo zero complesso x = i ha molteplicità 1, • p(x) è divisibile per (x + i) e lo zero complesso x = −i ha molteplicità 1.

Corollario 5.45. Un polinomio in una variabile p(x) di grado n ha al più n zeri, contati ciascuno con la sua molteplicità, ossia, se gli zeri sono α1 , α2 , . . . , αk , rispettivamente con molteplicità m1 , m2 , . . . , mk , si ha k X

mi 6 deg(p).

i=1

Dimostrazione. Per definizione abbiamo che p(x) è divisibile per (x − αi )mi per ogni i = 1, 2, . . . , k, ossia abbiamo p(x) = q(x) (x − α1 )m1 (x − α2 )m2 · · · (x − αk )mk .

Per l’Osservazione 5.31, abbiamo che deg(p) = deg(q) + P quindi che deg(p) > ki=1 mi .

Pk

i=1 mi ,

Nell’enunciato non abbiamo scritto che un polinomio di grado n ha “esattamente” n zeri, infatti il numero di zeri può cambiare a seconda dell’insieme a cui appartiene la variabile. Ad esempio, il polinomio x2 + 1 dell’Esempio 5.41-4 non ha zeri se l’insieme a cui appartiene la variabile è R, mentre ha due zeri, ±i, se l’insieme a cui appartiene la variabile è C.

e

Esempio 5.46. 1. Nell’Esempio 5.44 abbiamo calcolato le molteplicità degli zeri di alcuni polinomi. In tutti i casi abbiamo che la somma delle loro molteplicità è uguale al grado del polinomio: 3 nei primi tre casi e 2 nell’ultimo. Quindi in tutti i casi non ci può essere nessun altro zero.  2. Consideriamo il polinomio p(x) = x3 + x = x x2 + 1 . Se lo pensiamo come un polinomio a coefficienti reali, ha solo lo zero 0 con molteplicità uno, quindi la somma delle molteplicità degli zeri è uno, ed è minore o uguale al grado del polinomio, che è tre. Se invece lo pensiamo come un polinomio a coefficienti complessi, ha tre zeri, 0, i e −i, tutti con molteplicità uno, quindi la somma delle molteplicità degli zeri è tre, ed è minore o uguale al grado del polinomio, che è tre. Quindi non ci può essere nessun altro zero.

Il problema della ricerca degli zeri dei polinomi è molto complicato. In un caso particolare è però possibile trovare alcuni zeri in un modo molto semplice: ora mostriamo come trovare gli zeri razionali dei polinomi con coefficienti interi.

È stato dimostrato che non esiste una formula che utilizza solo radici per trovare tutti gli zeri di tutti i polinomi: esiste solo per i polinomi di grado al più 4.

Proposizione 5.47. Dato un polinomio in una variabile

Questa proposizione ha a che fare solo con gli zeri razionali: non dice niente su quelli irrazionali.

n

p(x) = an x + an−1 x

n−1

+ · · · + a1 x + a0

a coefficienti interi ◮, se esso ha uno zero razionale x ∈ Q allora si ha x = cb , con b che divide a0 e c che divide an . Non daremo la dimostrazione di questa proposizione. Esempio 5.48. 1. Gli zeri razionali del polinomio p(x) = 3x4 − 3 2 14x + 24x − 18x + 5, che ha coefficienti interi, sono della forma bc con b che divide 5 e c che divide 3. I divisori di 5 sono ±1 e ±5, mentre i divisori di 3 sono ±1 e ±3. Abbiamo quindi 8 candidati che controlliamo, uno per uno, sostituendoli in p(x). c 2014 Gennaro Amendola

Versione 1.0

◮ Ossia ai ∈ Z per ogni i = 0, 1, 2, . . . , n.

Lezione 5. Polinomi

b c 1 1 1 −1 5 1 − 51 1 3 − 31 5 3 − 53

5–17

Sostituzione

È zero?

p(1) = 3 · 14 − 14 · 13 + 24 · 12 − 18 · 1 + 5 = 0 p(−1) = 3(−1)4 − 14(−1)3 + 24(−1)2 − 18(−1) + 5 = 64 p(5) = 3 · 54 − 14 · 53 + 24 · 52 − 18 · 5 + 5 = 640 p(−5) = 3(−5)4 − 14(−5)3 + 24(−5)2 − 18(−5) + 5 = 4320  4 3 2  32 p 31 = 3 13 − 14 13 + 24 13 − 18 13 + 5 = 27      4 3 2 p − 13 = 3 − 13 − 14 − 13 + 24 − 31 − 18 − 13 + 5 = 128 9  4 3 2  p 35 = 3 53 − 14 53 + 24 53 − 18 53 + 5 = 0  4 3 2  p − 53 = 3 − 53 − 14 − 53 + 24 − 35 − 18 − 53 + 5 = − 5120 27

Sì No No No No No Sì No

Quindi il polinomio p(x) = 3x4 − 14x3 + 24x2 − 18x + 5 ha due zeri razionali, x = 1 e x = 35 . ◮ 2x3

3x2

2. Gli zeri razionali del polinomio p(x) = + − 5x − 6, che ha b coefficienti interi, sono della forma c con b che divide −6 e c che divide 2. I divisori di −6 sono ±1, ±2, ±3 e ±6, mentre i divisori di 2 sono ±1 e ±2. Abbiamo quindi 12 candidati che controlliamo, ◮ uno per uno, sostituendoli in p(x). ◮ b c 1 1

= 22 − 11 = − 22

2 1 − 21 6 3 1 = 2 − 31 = − 26 6 1 − 61 1 2 − 21 3 2 − 32

◮ ◮ Ci saremmo potuti fermare al penultimo candidato, 23 , perché sappiamo che un polinomio di terzo grado ha al più tre zeri (Corollario 5.45).

Sostituzione

È zero?

p(1) = 2 · 13 + 3 · 12 − 5 · 1 − 6 = −6 p(−1) = 2(−1)3 + 3(−1)2 − 5(−1) − 6 = 0 p(2) = 2 · 23 + 3 · 22 − 5 · 2 − 6 = 12 p(−2) = 2(−2)3 + 3(−2)2 − 5(−2) − 6 = 0 p(3) = 2 · 33 + 3 · 32 − 5 · 3 − 6 = 60 p(−3) = 2(−3)3 + 3(−3)2 − 5(−3) − 6 = −18 p(6) = 2 · 63 + 3 · 62 − 5 · 6 − 6 = 504 p(−6) = 2(−6)3 + 3(−6)2 − 5(−6) − 6 = −300  3 2  p 12 = 2 12 + 3 12 − 5 21 − 6 = − 15     2 1 1 3 1 2 1 p − 2 = 2 − 2 + 3 − 2 − 5 − 2 − 6 = −3  3 2  p 32 = 2 32 + 3 32 − 5 23 − 6 = 0  3 2  p − 32 = 2 − 23 + 3 − 32 − 5 − 32 − 6 = 32

No Sì No Sì No No No No No No Sì No

Quindi il polinomio p(x) = 2x3 + 3x2 − 5x − 6 ha tre zeri razionali, x = −1, x = −2 e x = 23 . ◮

5.3

◮ Non possiamo dire molto sulla loro molteplicità o su eventuali altri zeri: per il Corollario 5.45 sappiamo che ci possono essere al più altri due zeri, e che la somma delle molteplicità è al più 4.

Numeri complessi

Un numero complesso z = a + bi può essere pensato come un polinomio nella variabile i di grado al più uno. Un numero reale a può essere pensato come un numero complesso, scrivendolo come a + 0i, ossia come un polinomio di grado zero. Il coefficiente del termine di grado zero, a, è detto parte reale del numero complesso z. Il coefficiente del termine c 2014 Gennaro Amendola

Versione 1.0

◮ Hanno tutti molteplicità 1 e non ci sono altri zeri (irrazionali), perché un polinomio di terzo grado ha al più tre zeri, contati ciascuno con la sua molteplicità (Corollario 5.45).

Parte reale Parte immaginaria

Lezione 5. Polinomi

5–18

di grado uno, b, è detto parte immaginaria del numero complesso z. L’addizione di due numeri complessi si comporta come l’addizione di polinomi: z1 + z2 = (a1 + b1 i) + (a2 + b2 i) = = (a1 + a2 ) + (b1 + b2 )i. La moltiplicazione di due numeri complessi si comporta come la moltiplicazione di polinomi, con la piccola differenza che abbiamo i2 = −1:

z1 · z2 = (a1 + b1 i) · (a2 + b2 i) = a1 a2 + a1 b2 i + b1 a2 i + a2 b2 i2 = a1 a2 + a1 b2 i + b1 a2 i + a2 b2 (−1) = = (a1 a2 − a2 b2 ) + (a1 b2 + b1 a2 )i.

Esempio 5.49. è

1. La somma dei due numeri complessi 2+3i e 1+5i

(2 + 3i) + (1 + 5i) = (2 + 1) + (3 + 5)i = 3 + 8i. √ √ La somma dei due numeri complessi π − 3i e 1 + 4 3i è   √ √   √  √  √ π − 3i + 1 + 4 3i = (π + 1)+ − 3 + 4 3 i = (π + 1)+3 3i. 2. Il prodotto dei due numeri complessi 2 + 3i e 1 + 5i è

(2 + 3i) · (1 + 5i) = (2 · 1 − 3 · 5) + (2 · 5 + 3 · 1)i = −13 + 13i. √ √ Il prodotto dei due numeri complessi π − 3i e 1 + 4 3i è   √  √   √ √   √ √ √ π − 3i · 1 + 4 3i = π · 1 − (− 3) · 4 3 + π · 4 3 + (− 3) · 1 i = (π + 12)+(4π−1) 3i. Studiamo ora gli zeri dei polinomi con coefficienti nell’insieme dei numeri complessi, ossia i polinomi in C[x].

Teorema 5.50 (fondamentale dell’algebra). Ogni polinomio a coefficienti complessi (ossia in C[x]) di grado n ha esattamente n zeri, contati ciascuno con la sua molteplicità, ossia se gli zeri sono α1 , α2 , . . . , αk , rispettivamente con molteplicità m1 , m2 , . . . , mk , si ha k X

Teorema fondamentale dell’algebra Questo teorema migliora il risultato del Corollario 5.45, ma solo per i numeri complessi.

mi = deg(p).

i=1

La dimostrazione di questo teorema è difficile, quindi la omettiamo. Esempio 5.51. Consideriamo l’Esempio 5.46. 1. Per i polinomi dell’Esempio 5.44 abbiamo che la somma delle molteplicità degli zeri è uguale al grado del polinomio.  2. Per il polinomio p(x) = x3 + x = x x2 + 1 , che dobbiamo pensare a coefficienti complessi, abbiamo che la somma delle molteplicità degli zeri è tre ed è uguale al grado del polinomio, che è tre. Dato un numero complesso z = a + bi, il numero complesso a − bi è detto coniugato di z, ed è indicato con

Coniugato

z. I numeri reali sono gli unici numeri complessi che coincidono con il loro coniugato. ◮ c 2014 Gennaro Amendola

Se pensiamo il polinomio a coefficienti reali, non possiamo applicare il teorema: infatti abbiamo che la somma delle molteplicità degli zeri (c’è solo 0 con molteplicità uno) è uno ed è strettamente minore del grado del polinomio (e quindi diversa da esso), che è tre.

Versione 1.0

· ◮ Infatti, a + bi = a − bi se e solo se 2bi = 0, ossia b = 0.

Lezione 5. Polinomi

5–19

Esempio 5.52. 1. Il coniugato del numero complesso 2 + 3i è 2 − 3i. √ √ Il coniugato del numero complesso −π − 2i è −π + 2i.

2. Il coniugato del numero reale 2 = 2 + 0i è il numero reale stesso, 2 = 2 − 0i.

Un polinomio a coefficienti reali, ossia in R[x], può essere pensato come un polinomio a coefficienti complessi, quindi può avere anche zeri complessi. Nel caso abbia zeri non reali, essi sono accoppiati, come descritto nella seguente proposizione. Proposizione 5.53. Se un polinomio a coefficienti reali (ossia in R[x]) ha uno zero complesso α, ha anche il suo coniugato α come zero. Non daremo la dimostrazione di questa proposizione.

Esempio 5.54. Il polinomio x3 − 5x2 + 17x − 13 ha tre zeri, 1, 2 + 3i e 2 − 3i. ◮ Abbiamo uno zero reale, 1, che coincide con il suo coniugato, e due complessi non reali, l’uno il coniugato dell’altro, 2 ± 3i.

5.4

◮ Vedremo nella sezione trovare gli zeri.

seguente come

Equazioni polinomiali in una incognita

Consideriamo un polinomio in una variabile p(x). L’equazione

Equazione polinomiale

p(x) = 0 nell’incognita x è detta equazione polinomiale. Il grado del polinomio p(x) è detto grado dell’equazione. Risolvere l’equazione consiste nel cercare i valori di x tali che p(x) = 0, ossia gli zeri del polinomio p(x) ◮. Se uno zero x = α ha molteplicità 1 diremo che la soluzione α è semplice, se ha molteplicità 2 diremo che la soluzione α è doppia, se ha molteplicità 3 diremo che la soluzione α è tripla, e così via. Se deg(p) = 1, ossia p(x) è della forma ax + b, con a 6= 0, abbiamo visto che l’equazione ax + b = 0 ha una soluzione x1 = − ab ◮. Se deg(p) = 2, ossia p(x) è della forma ax2 + bx +√c, con a 6= 0, b2 −4ac e x2 = l’equazione ax2 + bx + c = 0 ha due soluzioni x1 = −b− 2a √ −b+ b2 −4ac ◮ . Le soluzioni coincidono se b2 −4ac = 0, e sono complesse se 2a ◮ Questa formula è detta formula risolutiva delle equazioni b2 − 4ac < 0. ◮

di secondo grado. Prima di aumentare il grado, analizziamo i due casi più semplici: ◮ • se deg(p) = 0, ossia p(x) = a, con a 6= 0, non ci sono soluzioni; ◮ ◮

• se deg(p) = −∞, ossia p(x) = 0, tutti i numeri sono soluzioni. ◮ Analizziamo il caso generico, ossia supponiamo che deg(p) = n > 2 e consideriamo l’equazione p(x) = 0. Non esiste un metodo che funziona per tutti i polinomi di qualsiasi grado. ◮ Se però i coefficienti del polinomio p(x) sono interi, un metodo per trovare le soluzioni dell’equazione p(x) = 0 consiste nel cercare di abbassare il grado del polinomio fino ad ◮ Questo metoarrivare a 1 o 2, e quindi usare le formule viste sopra. ◮ do funziona solo se tutti gli zeri del polinomio, eccetto al più due, sono razionali. I passi da fare per abbassare il grado sono i seguenti.

c 2014 Gennaro Amendola

Versione 1.0

Grado ◮ Definizione 5.40.

Soluzioni semplici, doppie, triple,. . .

◮ Esempio 4.6.

Formula risolutiva delle equazioni di secondo grado ◮ Useremo anche la notazione x1/2 √ −b± b2 −4ac . 2a

=

◮ ◮ Se b2 − 4ac < 0 non ci sono soluzioni reali. ◮ ◮ ◮ Sostituendo alla x un qualunque numero, otteniamo sempre a, ossia non otteniamo mai 0. ◮ Sostituendo alla x un qualunque numero, otteniamo sempre 0. ◮ Se deg(p) = 3 oppure deg(p) = 4, esistono formule esplicite per trovare le soluzioni, ma sono lunghe e complicate. Se invece deg(p) > 5, è stato dimostrato che ci sono polinomi i cui zeri possono essere espressi tramite radicali, e che ce ne sono altri i cui zeri non possono essere espressi tramite radicali. ◮ ◮ Questo metodo non funziona se anche uno solo dei coefficienti del polinomio non è intero: ad esempio, per il polinomio x3 − √ 2x + 1.

Lezione 5. Polinomi

5–20

Passo 1. Cerchiamo uno zero razionale di p(x) utilizzando la Proposizione 5.47, ossia cerchiamo uno zero della forma cb con b che divide il coefficiente del termine noto di p(x) e c che divide il coefficiente del termine di grado massimo. Passo 2. Per il Teorema di Ruffini ◮ il polinomio p(x) è divisibile per il  polinomio x− cb , ossia abbiamo p(x) = q(x) x − bc ; per trovare ◮ q(x), facciamo la divisione ◮ di p(x) per x − bc . ◮ A questo punto abbiamo abbassato il grado di p(x), infatti deg(q) = deg(p) − 1, e possiamo ripetere i passi precedenti finché otteniamo un polinomio di grado 1 o 2. Infine, possiamo trovare gli ultimi zeri con le formule descritte sopra. Il problema anticipato prima sul fatto che questo procedimento potrebbe non funzionare dipende dal fatto che al Passo 1 potremmo non riuscire a trovare uno zero del polinomio: ciò succede se il polinomio non ha abbastanza zeri razionali. ◮ Se riusciamo a trovare tutti gli zeri di p(x), diciamo α1 , α2 , . . . , αn , possiamo scrivere

◮ Teorema 5.42.

◮ Algoritmo 5.36. ◮ ◮ Un altro metodo per trovare q(x) consiste nell’usare la “Regola di Ruffini”: abbiamo preferito utilizzare la divisione (che è una generalizzazione della divisione tra numeri, conosciuta dalle scuole elementari), evitando di imparare un altro metodo.

◮ Servono almeno deg(p) − 2 zeri razionali.

Per completezza, diciamo che la scrittura p(x) = pn (x − α1 ) (x − α2 ) · · · (x − αn ) è detta fattorizzazione di p(x).

p(x) = pn (x − α1 ) (x − α2 ) · · · (x − αn ) ,

dove pn è il coefficiente del termine di grado massimo di p(x). Esempio 5.55.

1. Cerchiamo le soluzioni dell’equazione

3

(5.1)

x − 7x − 6 = 0.

Visto che il polinomio p(x) = x3 − 7x − 6 ha coefficienti interi, cominciamo cercando le soluzioni razionali, ossia proviamo con i numeri bc , con b che divide −6 e c che divide 1. Abbiamo 8 casi: ±1, ±2, ±3, ±6. Abbiamo p(−1) = 0, quindi una soluzione è x = −1. Allora il polinomio p(x) è divisibile per x + 1: facendo la divisione otteniamo come quoziente x2 − x − 6 ◮, quindi p(x) = x2 − x − 6 (x + 1). Cerchiamo quindi le soluzioni dell’equazione x2 −x−6 √ = 0 che pos−(−1)±

◮ E, naturalmente, resto 0: se non trovassimo 0 saremmo sicuri di aver fatto un errore (nel fare la divisione o nel cercare gli zeri prima).

(−1)2 −4·1·(−6)

= siamo trovare con la formula risolutiva: x = 2·1 1±5 ◮ L’equazione (5.1) ha tre solu- ◮ Essendo razionali, le avremmo potute tro, ossia x = 3 oppure x = −2. 2 vare anche proseguendo con il metodo inizioni: x = −1, x = −2 e x = 3. ziale, con cui abbiamo trovato la soluzione

2. Cerchiamo le soluzioni dell’equazione 17 11 (5.2) x4 + x3 + x2 − 6 = 0. 2 2 Notiamo che moltiplicando entrambi i membri per 2 otteniamo l’equazione equivalente 2x4 +11x3 +17x2 −12 = 0. Quindi, cerchiamo gli zeri del polinomio a coefficienti interi p(x) = 2x4 +11x3 +17x2 − 12. Cominciamo cercando le soluzioni razionali, ossia proviamo con i numeri bc , con b che divide −12 e c che divide 2. Abbiamo molti casi da analizzare: ±1, ±2, ±3, ±4, ±6, ±12, ± 12 , ± 32 . Abbiamo p(−2) = 0, quindi una soluzione è x = −2. Allora il polinomio p(x) è divisibile per x+2: facendo la divisione otteniamo come  quoziente 2x3 + 7x2 + 3x − 6, quindi p(x) = 2x3 + 7x2 + 3x − 6 (x + 2). c 2014 Gennaro Amendola

Versione 1.0

x = −1.

Lezione 5. Polinomi

5–21

Cerchiamo quindi gli zeri del polinomio a coefficienti interi q(x) = 2x3 + 7x2 + 3x − 6. Cerchiamo ancora le soluzioni razionali, ossia proviamo con i numeri bc , con b che divide −6 e c che divide 2. Analizziamo i vari casi: ±1, ±2, ±3, ±6, ± 12 , ± 32 . Abbiamo q(−2) = 0, quindi una soluzione è x = −2. ◮ Allora il polinomio q(x) è divisibile per x + 2: facendo la divisione otteniamo come  2 2 ◮. quoziente 2x + 3x − 3, quindi q(x) = 2x + 3x − 3 (x + 2) ◮ Cerchiamo quindi le soluzioni dell’equazione 2x2 + 3x √ − 3 = 0 che possiamo trovare con la formula risolutiva: x = √

−3± 33 ◮ . L’equazione 4 √ −3+ 33 semplice e x= 4

(5.2) ha tre x=

√ −3− 33 4

◮: soluzioni ◮

semplice.

−3±

32 −4·2·(−3) 2·2

=

x = −2 doppia,

3. Cerchiamo le soluzioni dell’equazione 3x4 + 2x3 + 5x2 − 2x = 0.

◮ L’abbiamo già trovata sopra, quindi abbiamo che la sua molteplicità come zero di p(x) è almeno 2.  2 2 ◮ ◮ Allora p(x) = 2x + 3x − 3 (x + 2) .

(5.3)

Notiamo che possiamo applicare la proprietà distributiva a x, ot tenendo il polinomio p(x) = 3x3 + 2x2 + 5x − 2 x. ◮ Uno zero è quindi x = 0. Cerchiamo quindi gli zeri del polinomio a coefficienti interi q(x) = 3x3 + 2x2 + 5x − 2. Cominciamo cercando le soluzioni razionali, ossia proviamo con i numeri cb , con b che divide −2 e c che divide 3. Abbiamo 8 casi: ±1, ±2, ± 13 , ± 32 . Abbiamo p 13 = 0, quindi una soluzione è x = 31 . Allora il polinomio q(x) è divisibile per x − 31 : facendo la divisione otteniamo come quoziente 3x2 + 3x + 6,   quindi q(x) = 3x2 + 3x + 6 x − 13 ◮. Cerchiamo quindi le soluzioni dell’equazione 3x2 + 3x + 6 = 0, che, dividendo entrambi i membri per 3, diventa√x2 +x+2 = 0. Usando √ −1± 7i −1± 12 −4·1·2 = = la formula risolutiva otteniamo x = 2·1 2 √

◮ Queste due soluzioni non sono razionali quindi non le avremmo potute trovare proseguendo con il metodo iniziale, con cui abbiamo trovato la soluzione doppia x = −2. ◮ ◮ Quattro se le contiamo con la loro

molteplicità: 2 + 1 + 1 = 4. ◮ Un altro modo (più lungo) per ottenere lo stesso risultato utilizza la solita tecnica: visto che 3 · 04 + 2 · 03 + 5 · 02 − 2 · 0 = 0, il polinomio è divisibile per x − 0 = x, quindi facendo la divisione otteniamo come quoziente 3x3 + 2x2 + 5x − 2 (e resto 0, naturalmente).

 ◮ Allora p(x) = 3x2 + 3x + 6 x −

1 3



x.

− 21 ± 27 i. Se stiamo cercando le soluzioni reali dell’equazione (5.3), ne abbiamo due: x = 0 e x = 31 . Se invece stiamo cercando le soluzioni complesse dell’equazione (5.3), ne abbiamo quattro: x = 0, x = 13 , √ √

x = − 21 + 27 i e x = − 12 − hanno molteplicità 1.

7 2 i.

In entrambi i casi tutti gli zeri

4. Cerchiamo le soluzioni dell’equazione x3 + x + 3 = 0.

(5.4)

Visto che il polinomio p(x) = x3 + x + 3 ha coefficienti interi, cominciamo cercando le soluzioni razionali, ossia proviamo con i numeri bc , con b che divide 3 e c che divide 1. Abbiamo 4 casi: ±1, ±3. Abbiamo p(1) = 5, p(−1) = 1, p(3) = 33, p(−3) = −27, quindi il polinomio non ha zeri razionali, e non conosciamo altre tecniche per trovare gli zeri. ◮

c 2014 Gennaro Amendola

Versione 1.0

◮ Non abbiamo visto la formula esplicita per le equazioni di terzo grado.

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 5/S1 Polinomi 1

Sessione di Studio 5.1

Polinomi

Lezione 5. Polinomi

5–22

Sessione di Studio 5.1 Esercizio 5.1. • Calcola la somma e il prodotto dei due polinomi 2x2 y − x2 y 3 e x + 3xy 2 − x2 y. • Quali sono i gradi dei polinomi dati?

• Quali sono i gradi della somma e del prodotto?

• Trova un insieme di polinomi I[variabili], con un insieme opportuno I e variabili opportune, a cui questi polinomi appartengono.

• Qual è il minimo m tale che tutti questi polinomi appartengono a I6m[variabili]?

Soluzione.

• La somma è   2x y − x2 y 3 + x + 3xy 2 − x2 y = x2 y − x2 y 3 + x + 3xy 2 . 2

Il prodotto è   2x2 y − x2 y 3 · x + 3xy 2 − x2 y = 2x3 y − x3 y 3 + 6x3 y 3 − 3x3 y 5 − 2x4 y 2 + x4 y 4 = = 2x3 y + 5x3 y 3 − 3x3 y 5 − 2x4 y 2 + x4 y 4 .

• Il grado del primo polinomio è 5 perché il termine di grado massimo è −x2 y 3 . Il grado del secondo polinomio è 3 perché un termine con grado massimo è 3xy 2 ◮. • Il grado della somma è 5 perché il termine con grado massimo è −x2 y 3 . Il grado del prodotto è 8 = 5 + 3 ◮.

◮, e le variabili sono x e y, • Come insieme I possiamo scegliere R ◮ quindi l’insieme di polinomi è R[x, y].

• Visto che il massimo grado dei polinomi è 8, il minimo m è 8. ◮ Esercizio 5.2. Calcola la divisione di x4 − 3x3 − x2 + 5 per x2 − 2. Scrivi la relazione tra il dividendo, il divisore, il quoziente e il resto. Soluzione. x4 x4 

−3x3 −3x3 −3x3 

−x2 −2x2 x2 x2 x2 

+0x

+5

+0x +6x −6x

+5

x2 − 2 x2 − 3x + 1

+5 −2 −6x +7

  La relazione è x4 − 3x3 − x2 + 5 = x2 − 3x + 1 · x2 − 2 + (−6x + 7). Esercizio 5.3. Trova gli zeri del polinomio 2x3 − 9x2 + x + 12, e le loro molteplicità. Soluzione. Gli zeri razionali del polinomio 2x3 − 9x2 + x + 12, che ha coefficienti interi, hanno la forma bc con b che divide 12 e c che divide 2. I divisori di 12 sono ±1, ±2, ±3, ±4, ±6 e ±12, mentre i divisori di 2 c 2014 Gennaro Amendola

Versione 1.0

◮ Anche il termine −x2 y ha grado 3. ◮ Ossia la somma dei gradi dei due polinomi dati. ◮ ◮ Anche Z, Q o C, ma non N perché −1 6∈ N. ◮ L’insieme di polinomi è R68 [x, y].

Lezione 5. Polinomi

5–23

sono ±1 e ±2. Abbiamo quindi molti candidati da controllare, uno per uno, sostituendoli in p(x): ±1, ±2, ±3, ±4, ±6, ±12, ± 12 , ± 23 . Abbiamo che −1 è uno zero, quindi dividiamo il polinomio per x + 1. La divisione è 2x3 2x3 

−9x2 +2x2 −11x2 −11x2 

+x +12

x+1 2x2 − 11x + 12

+x +12 −11x 12x +12 12x +12  0

Quindi cerchiamo gli zeri del polinomio √ 2x2 − 11x + 12, che possiamo 11± (−11)2 −4·2·12 3 = 11±5 trovare con la formula risolutiva: x = 2·2 4 , ossia 2 e 3 4. Le soluzioni sono x1 = −1 con molteplicità 1, x2 = 2 con molteplicità 1, x3 = 4 con molteplicità 1. Esercizio 5.4. Trova gli zeri del polinomio x4 − x3 − 10x2 + 4x + 24, e le loro molteplicità. Soluzione. Gli zeri razionali del polinomio x4 − x3 − 10x2 + 4x + 24, che ha coefficienti interi, hanno la forma cb con b che divide 24 e c che divide 1. I divisori di 24 sono ±1, ±2, ±3, ±4, ±6, ±8, ±12 e ±24, mentre i divisori di 1 sono ±1. Abbiamo quindi molti candidati da controllare, uno per uno, sostituendoli in p(x): ±1, ±2, ±3, ±4, ±6, ±8, ±12 e ±24. Abbiamo che 2 e −2 sono zeri, quindi dividiamo il polinomio per (x − 2)(x + 2) = x2 − 4. La divisione è x4 x4 

−x3 −x3 −x3 

−10x2 −4x2 −6x2 −6x2 −6x2 

+4x +24

x2 − 4 x2 − x − 6

+4x +24 +4x +24 +24 0

Quindi cerchiamo gli zeri del polinomio x2 − x − 6, che possiamo trovare √ 1± (−1)2 −4·(−6) = 1±5 con la formula risolutiva: x = 2·1 2 , ossia −2 e 3. Le soluzioni sono x1/2 = −2 con molteplicità 2, x3 = 2 con molteplicità 1, x4 = 3 con molteplicità 1.

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 5/S2 Polinomi 1

Sessione di Studio 5.2

Polinomi

Lezione 5. Polinomi

5–24

Sessione di Studio 5.2 Esercizio 5.5. • Calcola la somma e il prodotto dei due polinomi ab2 − 3ab e ab − ab2 . • Quali sono i gradi dei polinomi dati?

• Quali sono i gradi della somma e del prodotto?

• Trova un insieme di polinomi I[variabili], con un insieme opportuno I e variabili opportune, a cui questi polinomi appartengono.

• Qual è il minimo m tale che tutti questi polinomi appartengono a I6m[variabili]?

Esercizio 5.6. Calcola la divisione di 2x4 −x3 +3x2 −x−4 per x2 −x+3. Scrivi la relazione tra il dividendo, il divisore, il quoziente e il resto. Esercizio 5.7. Trova gli zeri del polinomio x3 − 5x2 + 17x − 13, e le loro molteplicità. Esercizio 5.8. Trova gli zeri del polinomio x5 − x4 − 7x3 + 13x2 − 6x, e le loro molteplicità.

c 2014 Gennaro Amendola

Versione 1.0

Lezione 5. Polinomi

5–25

  Risultato dell’Esercizio 5.5. • ab2 − 3ab + ab − ab2 = −2ab,   ab2 − 3ab · ab − ab2 = 4a2 b3 − 3a2 b2 − a2 b4 .   • deg ab2 − 3ab = 3, deg ab − ab2 = 3.       • deg ab2 − 3ab + ab − ab2 = 2, deg ab2 − 3ab · ab − ab2 = 6. • R[a, b].

• m = 6. ◮

◮ L’insieme dei polinomi è R66 [a, b].

Risultato dell’Esercizio 5.6. 2x4 2x4 

−x3 −2x3 x3 x3 

+3x2 +6x2 −3x2 −x2 −2x2 −2x2 

−x

−4

x2 − x + 3 2x2 + x − 2

−x −4 +3x −4x −4 +2x −6 −6x +2

  La relazione è 2x4 − x3 + 3x2 − x − 4 = 2x2 + x − 2 · x2 − x + 3 + (−6x + 2). Risultato dell’Esercizio 5.7. x1 = 1 con molteplicità 1, x2 = 2 + 3i con molteplicità 1, x3 = 2 − 3i con molteplicità 1. Risultato dell’Esercizio 5.8. x1 = 0 con molteplicità 1, x2/3 = 1 con molteplicità 2, x4 = 2 con molteplicità 1, x5 = −3 con molteplicità 1.

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 5/S3 Polinomi 1

Sessione di Studio 5.3

Polinomi

Lezione 5. Polinomi

5–26

Sessione di Studio 5.3 Letture supplementari possono essere le seguenti: • http://it.wikipedia.org/wiki/Monomio

• http://it.wikipedia.org/wiki/Polinomio

• http://it.wikipedia.org/wiki/Divisione_dei_polinomi • http://it.wikipedia.org/wiki/Teorema_del_resto

• http://it.wikipedia.org/wiki/Teorema_delle_radici_razionali

• http://it.wikipedia.org/wiki/Numero_complesso

• http://it.wikipedia.org/wiki/Teorema_fondamentale_dell’algebra

• http://it.wikipedia.org/wiki/Equazione_algebrica

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 5/S3 Polinomi 3

Sessione di Studio 5.3 Quiz

Polinomi

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 5/S3 Polinomi 3

• Risolvere il seguente quiz a risposta multipla in cui per ogni domanda una sola risposta è giusta. • Rivedere le risposte del quiz.

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 6 Funzioni e classi di equivalenza 1

Lezione 6 Funzioni e classi di equivalenza

Lezione 6

Funzioni e classi di equivalenza In questa lezione rivedremo brevemente alcune nozioni di base sulle funzioni e sulle classi di equivalenza. Esse sono fondamentali per ciò che faremo in seguito, sia per i concetti (che sono la base per i concetti futuri) che per l’introduzione del linguaggio matematico (che useremo nelle altre lezioni).

6.1

Funzioni

Definizione 6.1. Dati due insiemi I e J , una funzione o mappa o applicazione da I a J è una legge f che associa ad ogni elemento dell’insieme I uno e un solo elemento dell’insieme J . L’insieme I è detto dominio, mentre l’insieme J è detto codominio. La funzione è sintetizzata con o con

f : I −→ J ,

Funzione/mappa/applicazione

I

J

Il dominio e il codominio sono parte integrante della funzione.

f

I −→ J ,

o semplicemente con f . Per ogni elemento x ∈ I l’elemento di J che f associa a x ◮ è detto immagine (rispetto a f ) di x, ed è indicato con

f (x) ∈ J . f (x) si legge “f di x”.

f (x).

Se l’elemento del dominio è una n-upla scriveremo semplicemente f (x1 , x2 , . . . , xn ), invece di f (x1 , x2 , . . . , xn ) .

La funzione f è anche indicata con f : I ∋ x 7−→ f (x) ∈ J ,

dove al posto di f (x) utilizziamo la formula esplicita. Esempio 6.2. 1. La legge f : {1, 2, 3, 4} −→ {a, b, c, d} definita da f (1) = a, f (2) = c, f (3) = c, f (4) = d è una funzione: ha come dominio l’insieme {1, 2, 3, 4} e come codominio l’insieme {a, b, c, d}. Ad ogni elemento del dominio associa uno e un solo elemento del codominio: ad esempio, l’immagine dell’elemento 2 ∈ {1, 2, 3, 4} è f (2) = c ∈ {a, b, c, d}. Anche la legge fB : {1, 2, 3, 4} −→ {a, b, c, d} definita da fB (1) = a, fB (2) = c, fB (3) = b, fB (4) = d è una funzione: ha lo stesso c 2014 Gennaro Amendola

◮ È uno solo.

Versione 1.0

f:

fB :

Lezione 6. Funzioni e classi di equivalenza

6–2

dominio e lo stesso codominio di f , ma la legge è diversa, infatti f (3) = c mentre fB (3) = b. Al contrario, la legge fN : {1, 2, 3, 4} −→ {a, b, c, d} definita da fN (1) = a oppure b, fN (2) = c, fN (3) = c, fN (4) = d non è una funzione, infatti all’elemento 1 ∈ {1, 2, 3, 4} associa due elementi a, b ∈ {a, b, c, d}. La legge fI : {1, 2, 3} −→ {a, b, c, d} definita da fI (1) = a, fI (2) = c, fI (3) = b è una funzione: ha come dominio l’insieme {1, 2, 3} e come codominio l’insieme {a, b, c, d}. La legge fS : {1, 2, 3} −→ {a, b} definita da fS (1) = a, fS (2) = b, fS (3) = a è una funzione: ha come dominio l’insieme {1, 2, 3} e come codominio l’insieme {a, b}.

2. La legge q : R ∋ x 7−→ x2 ∈ R è una funzione: ha come dominio e come codominio l’insieme dei numeri reali R. Ad ogni elemento del dominio associa uno e un solo elemento del codominio: ad esempio, l’immagine dell’elemento 3 ∈ R è q(3) = 32 = 9 ∈ R, l’immagine dell’elemento −π ∈ R è q(−π) = (−π)2 = π 2 ∈ R. La legge qR : {a ∈ R | a > 0} ∋ x 7−→ x2 ∈ R è una funzione diversa da q: la legge è la stessa ◮, ma il dominio è diverso, infatti ora è {a ∈ R | a > 0}. L’immagine dell’elemento 3 ∈ R è ancora q(3) = 32 = 9 ∈ R, ma non ha senso calcolare l’immagine di −π perché −π 6∈ {a ∈ R | a > 0} ◮. √ 3. La legge r : {a ∈ R | a > 0} ∋ x 7−→ ± x ∈ R non è una funzione,√ infatti all’elemento 4 ∈ {a ∈ R | a > 0} associa due elementi ± 4 = ±2 ∈ R. √ Invece la legge r+ : {a ∈ R | a > 0} ∋ x 7−→ x ∈ R è una funzione: ha come dominio l’insieme {a ∈ R | a > 0} e come codominio l’insieme R. Ad ogni elemento del dominio associa uno e un solo elemento del codominio: ad esempio, l’immagine dell’ele√ mento 9 ∈ {a ∈ R | a > 0} è r+ (9) = 9 √ = 3 ∈ R, l’immagine dell’elemento 3 ∈ {a ∈ R | a > 0} è r+ (3) = 3 ∈ R. √ Analogamente, la legge r− : {a ∈ R | a > 0} ∋ x 7−→ − x ∈ R è una funzione: ha come dominio l’insieme {a ∈ R | a > 0} e come codominio l’insieme R. Ad ogni elemento del dominio associa uno e un solo elemento del codominio: ad esempio, √ l’immagine dell’elemento 9 ∈ {a ∈ R | a > 0} è r+ (9) = − 9 = −3 √ ∈ R, l’immagine dell’elemento 3 ∈ {a ∈ R | a > 0} è r+ (3) = − 3 ∈ R. 4. La legge g : R2 ∋ (x, y) 7−→ (x+2y, x+y, 2x−y) ∈ R3 è una funzione: ha come dominio il prodotto cartesiano R2 e come codominio il prodotto cartesiano R3 . Ad ogni elemento del dominio associa uno e un solo elemento del codominio: ad esempio, l’immagine dell’elemento (1, −2) ∈ R2 è   g (1, −2) = 1+2(−2), 1+(−2), 2·1−(−2) = (−3, −1, 4) ∈ R3 , l’immagine dell’elemento (0, 1) ∈ R2 è   g (0, 1) = 0 + 2 · 1, 0 + 1, 2 · 0 − 1 = (2, 1, −1) ∈ R3 .

c 2014 Gennaro Amendola

Versione 1.0

fN :

fI :

fS :

◮ L’elevamento al quadrato.

◮ −π < 0.

Ricordiamo che dato √ a ∈ R non negativo, indichiamo con a l’unico numero reale non negativo b tale che b2 = a.

Lezione 6. Funzioni e classi di equivalenza

6–3

5. Dato un qualsiasi insieme I, la legge idI : I ∋ x 7−→ x ∈ I è una funzione: ha come dominio e come codominio l’insieme I. Ad ogni elemento di I associa l’elemento stesso.

Esempio 6.3. Funzioni necessarie nel seguito sono le funzioni trigonometriche: sen, cos e tan. Le due funzioni sen e cos hanno R sia come dominio che come codominio, mentre tan ha R\ π2 + kπ ∈ R k ∈ Z come dominio e R come codominio. Per definirle, consideriamo una circonferenza di raggio 1 e l’angolo α indicato nella figura. Le lunghezze dei tre segmenti indicati nella figura sono sen(α), cos(α) e tan(α) per 0 6 α < π2 . Nota che i segmenti le cui lunghezze sono sen(α) e tan(α) sono verticali. Per gli altri valori di α si possono = − sen(α),  usare le formule sen(−α)  cos(−α) = cos(α), sen α + π2 = cos(α), cos α + π2 = − sen(α) e tan(α) = sen(α) cos(α) . I valori per gli angoli principali sono indicati nella seguente tabella. Gradi

Radianti

sen(α)

0◦

0

0

30◦

π 6 π 4 π 3 π 2 2π 3 3π 4 5π 6

1 √2 2 √2 3 2

√ 3 √2 2 2 1 2

1

0

180◦

π

0

210◦

7π 6 5π 4 4π 3 3π 2 5π 3 7π 4 11π 6

− 21 √ − 22 √ − 23

45◦ 60◦ 90◦ 120◦ 135◦ 150◦

225◦ 240◦ 270◦ 300◦ 315◦ 330◦

√ 3 √2 2 2 1 2

−1 √

− 23 √ − 22 − 21

cos(α) 1

− 21 √

2 √2 − 23



−1 √

3 √2 − 22 − 21



0

1 √2 2 √2 3 2

tan(α) 0



3 3

1 √ 3 non definito √ − 3 −1 √

− 33 0 √

3 3

1 √ 3 non definito √ − 3 −1



√ 3 3

Notazione 6.4. Dato un insieme I, la funzione da I a I che associa ad ogni elemento di I l’elemento stesso è detta identità su I ed è indicata con idI , o semplicemente con id, se l’insieme I è chiaro dal contesto.

Definizione 6.5. Sia f : I → I una funzione il cui dominio coincide con il codominio. Un elemento x ∈ I tale che f (x) = x è detto punto fisso di f . Esempio 6.6. 1. La funzione σ : {1, 2, 3} −→ {1, 2, 3} definita da σ(1) = 3, σ(2) = 2, σ(3) = 1 ha l’insieme {1, 2, 3} sia come dominio che come codominio. L’elemento 2 è un punto fisso di σ, perché σ(2) = 2. Gli elementi 1 e 3 non sono punti fissi di σ, perché σ(1) = 3 6= 1 e σ(3) = 1 6= 3. c 2014 Gennaro Amendola

Versione 1.0

Identità idI : I ∋ x 7−→ x ∈ I. idI /id Punto fisso Se il dominio e il condominio sono diversi, può non avere senso chiedere se un elemento x del dominio è un punto fisso, perché f (x) appartiene a un insieme diverso.

Lezione 6. Funzioni e classi di equivalenza

6–4

2. La funzione t : R ∋ x 7−→ x+1 ∈ R ha l’insieme R sia come dominio che come codominio. Essa non ha punti fissi perché l’equazione t(x) = x non ha soluzioni. ◮ 3. Ogni elemento di un insieme I è un punto fisso della funzione identità idI su I, perché idI (x) = x per tutti gli x ∈ I. Notiamo che il dominio e il codominio sono entrambi I.

◮ Non c’è nessun numero reale tale che x + 1 = x.

Definizione 6.7. Sia f : I → J una funzione. Se K ⊂ I è un sottoinsieme di I, il sottoinsieme di J formato dalle immagini rispetto a f degli elementi di K,

Immagine

è detto immagine (rispetto a f ) di K. L’immagine di tutto il dominio I

L’insieme I è un sottoinsieme del dominio I stesso.

f (K) := {f (x) ∈ J | x ∈ K},

Im(f ) := {f (x) ∈ J | x ∈ I},

Im(·)

è detta immagine di f .

Osservazione 6.8. L’immagine di una funzione f : I → J può essere scritta come segue:

L’immagine è formata dagli elementi che “provengono” da qualche elemento del dominio.

Im(f ) = {y ∈ J | ∃ x ∈ I con f (x) = y}.

Esempio 6.9. Consideriamo le funzioni dell’Esempio 6.2. 1. L’immagine rispetto a f dell’insieme K = {1, 2} è f (K) = {a, c}, infatti f (1) = a e f (2) = c. L’immagine di f è Im(f ) = {a, c, d}, ◮. infatti f (1) = a, f (2) = c ◮ e f (4) = d ◮ Anche l’immagine rispetto a fB dell’insieme K = {1, 2} è fB (K) = {a, c}, infatti fB (1) = a e fB (2) = c. L’immagine di fB è invece Im (fB ) = {a, b, c, d}, infatti fB (1) = a, fB (3) = b, fB (2) = c e fB (4) = d. Anche l’immagine rispetto a fI dell’insieme K = {1, 2} è fI (K) = {a, c}, infatti fI (1) = a e fI (2) = c. L’immagine di fI è invece Im (fI ) = {a, b, c}, infatti fI (1) = a, fI (3) = b e fI (2) = c. L’immagine rispetto a fS dell’insieme K = {1, 2} è f (K) = {a, b}, infatti fS (1) = a e fS (2) = b. Anche l’immagine di fS è Im (fS ) = {a, b}, infatti fS (1) = a, fS (2) = fS (3) = c. 2. L’immagine rispetto a q dell’insieme K = {a ∈ R | − 1 < a 6 0} è q(K) = {a ∈ R | 0 6 a < 1}. L’immagine di q è invece l’insieme Im(q) = {a ∈ R | a > 0}. Per quanto riguarda la funzione qR , non ha senso fare l’immagine di K = {a ∈ R | − 1 < a 6 0}, perché K non è contenuto nel dominio di qR ◮. L’immagine di qR è l’insieme Im (qR ) = {a ∈ R | a > 0}.

3. L’immagine rispetto a r+ dell’insieme K = {a ∈ R | 1 < a < 4} è r+ (K) = {a ∈ R | 1 < a < 2}. L’immagine di r+ è invece l’insieme Im (r+ ) = {a ∈ R | a > 0}. L’immagine rispetto a r− dell’insieme K = {a ∈ R | 1 < a < 4} è r− (K) = {a ∈ R | − 2 < a < −1}. L’immagine di r− è invece l’insieme Im (r− ) = {a ∈ R | a 6 0}.  4. L’immagine K = (x, y) ∈ R2 y = 0 è  rispetto a 3g dell’insieme g(K) = (a, a, 2a) ∈ R a ∈ R , infatti un generico elemento di

c 2014 Gennaro Amendola

Versione 1.0

◮ Anche f (3) = c, ma affinché c appartenga a Im(f ) è sufficiente che esista un elemento x tale che f (x) = c: qui ne abbiamo due. ◮ ◮ Nessun elemento di {1, 2, 3, 4} ha come immagine b, quindi b 6∈ Im(f ).

◮ K 6⊂ {a ∈ R | a > 0}.

Lezione 6. Funzioni e classi di equivalenza

6–5

K è (a, 0) con a ∈ R e la sua immagine rispetto a g è (a + 2 · 0, a + 0, 2a  − 0) = (a, a, 2a). Analogamente, l’immagine di g è 3 Im(g) = (a + 2b, a + b, 2a − b) ∈ R a, b ∈ R .

5. L’immagine rispetto a idI di un qualsiasi sottoinsieme K di I è l’insieme K stesso. In particolare, l’immagine di idI è Im (idI ) = I.

Definizione 6.10. Una funzione f : I → J è detta surgettiva, se la sua immagine coincide con il codominio:

Funzione surgettiva

Im(f ) = J .

Osservazione 6.11. Per l’Osservazione 6.8, abbiamo che una funzione f : I → J è surgettiva se e solo se ∀y∈J

∃ x ∈ I con f (x) = y.

Questa può essere pensata come una definizione equivalente di surgettività. Ogni elemento del codominio “proviene” da qualche elemento del dominio.

Esempio 6.12. Consideriamo le funzioni dell’Esempio 6.2, di cui abbiamo trovato le immagini nell’Esempio 6.9. 1. La funzione f non è surgettiva, infatti la sua immagine, Im(f ) = ◮ L’elemento del codominio b non “provie{a, c, d}, non è uguale al codominio, {a, b, c, d} ◮. ne” da nessun elemento del dominio: b 6∈ Invece la funzione fB è surgettiva, infatti la sua immagine, Im (fB ) = Im(f ). ◮. {a, b, c, d}, è uguale al codominio, {a, b, c, d} ◮ ◮ ◮ Ogni elemento del codominio “proviene” da La funzione fI non è surgettiva, infatti la sua immagine, Im (fI ) = qualche elemento del dominio. {a, b, c}, non è uguale al codominio, {a, b, c, d}. Invece la funzione fS è surgettiva, infatti la sua immagine, Im (fS ) = {a, b}, è uguale al codominio, {a, b}. 2. La funzione q non è surgettiva, infatti la sua immagine, Im(q) = {a ∈ R | a > 0}, non è uguale al codominio, R ◮. Lo stesso vale per la funzione qR , che ha lo stesso codominio e la ◮. stessa immagine di q ◮

3. La funzione r+ non è surgettiva, infatti la sua immagine, Im (r+ ) = {a ∈ R | a > 0}, non è uguale al codominio, R. Se però consideria√ mo la funzione r + : {a ∈ R | a > 0} ∋ x 7−→ x ∈ {a ∈ R | a > 0}, ottenuta da r+ cambiando il codominio, otteniamo una funzione surgettiva, r+ , perché il codominio ora coincide con l’immagine, Im (r+ ) = {a ∈ R | a > 0}. ◮ Analogamente, la funzione r− non è surgettiva, infatti la sua immagine, Im (r− ) = {a ∈ R | a 6 0}, non è uguale al codominio, R. Se però consideriamo la funzione r− : {a ∈ R | a > 0} ∋ x 7−→ √ x ∈ {a ∈ R | a 6 0}, ottenuta da r− cambiando il codominio, otteniamo una funzione surgettiva, perché il codominio ora coincide con l’immagine, Im (r − ) = {a ∈ R | a 6 0}.

4. La funzione g non è surgettiva. Per dimostrarlo, consideriamo l’elemento del codominio (1, 0, 0) ∈ R3 e dimostriamo che esso non appartiene all’immagine di g ◮. Cerchiamo un elemento del dominio (x, y) ∈ R2 tale che g (x, y) = (1, 0, 0), ossia cerchiamo una soluzione dell’equazione (x + 2y, x + y, 2x − y) = (1, 0, 0). Due terne coincidono se e solo se coincidono le tre coppie corrispondenti,

c 2014 Gennaro Amendola

Versione 1.0

◮ Tutti i numeri reali negativi (che sono elementi del codominio) non sono il quadrato di nessun numero reale. ◮ ◮ Il commento precedente deve essere legger-

mente cambiato, perché il dominio è diverso. Tutti i numeri reali negativi (che sono elementi del codominio) non sono il quadrato di nessun numero reale positivo.

◮ Abbiamo escluso dal codominio gli elementi che non “provengono” da nessun elemento del dominio.

◮ Ossia, non “proviene” da nessun elemento del dominio.

Lezione 6. Funzioni e classi di equivalenza

6–6

ossia x + 2y = 1, x + y = 0 e 2x − y = 0, ossia se il sistema   x + 2y = 1 x+y =0  2x − y = 0

ha una soluzione. Il sistema non ha soluzione ◮, quindi (1, 0, 0) non appartiene all’immagine di g.

5. La funzione idI è surgettiva, infatti la sua immagine, Im (idI ) = I, è uguale al codominio, I.

Definizione 6.13. Una funzione f : I → J è detta iniettiva, se elementi diversi del dominio hanno immagini diverse: x1 6= x2

f (x1 ) 6= f (x2 ) .

=⇒

Osservazione 6.14. Considerando la contronominale ◮ di quella della definizione di iniettività, otteniamo che una funzione f : I → J è ◮ iniettiva se e solo se ◮ f (x1 ) = f (x2 )

=⇒

x1 = x2 .

Esempio 6.15. Consideriamo le funzioni dell’Esempio 6.2. 1. La funzione f non è iniettiva, infatti abbiamo f (2) = f (3), ossia i due elementi 2 e 3 hanno la stessa immagine. ◮ La funzione fB invece è iniettiva, infatti abbiamo ◮ ◮ 1 6= 2

and

1 6= 4

and

2 6= 4

and

1 6= 3

and

2 6= 3

and

3 6= 4

and

fB (1) = a 6= fB (2) = c,

fB (1) = a 6= fB (3) = b,

fB (1) = a 6= fB (4) = d, fB (2) = c 6= fB (3) = b,

fB (2) = c 6= fB (4) = d, fB (3) = b 6= fB (4) = d.

Analogamente, la funzione fI è iniettiva, infatti elementi diversi hanno immagini diverse. La funzione fS non è iniettiva, infatti abbiamo f (1) = f (3), ossia i due elementi 1 e 3 hanno la stessa immagine. 2. La funzione q non è iniettiva, infatti q(1) = q(−1) = 1. Invece, la funzione qR è iniettiva, infatti abbiamo x 6= y

x, y ∈ {a ∈ R | a > 0}

=⇒

x2 6= y 2 ,

ossia i quadrati di due numeri positivi distinti sono distinti. 3. La funzione r+ è iniettiva, infatti abbiamo x 6= y

x, y ∈ {a ∈ R | a > 0}

=⇒



x 6=



y,

ossia le radici quadrate principali di due numeri (positivi) distinti sono distinte. Analogamente, la funzione r− è iniettiva, infatti abbiamo √ √ x 6= y x, y ∈ {a ∈ R | a > 0} =⇒ − x 6= − y. c 2014 Gennaro Amendola

Versione 1.0

◮ Abbiamo visto nella Lezione 4 come risolvere i sistemi: dalle prime due equazioni ricaviamo x = −1 e y = 1, che non soddisfano la terza.

Funzione iniettiva Attenzione a non confondere la condizione sull’iniettività con la definizione di funzione. In una funzione ad ogni elemento del dominio è associato uno e un solo elemento del codominio (in un diagramma di Eulero-Venn, da ogni punto del dominio parte esattamente una freccia), ma possono esserci elementi del codominio che “provengono” da più elementi del dominio (in un punto del codominio possono arrivare più frecce). La funzione è iniettiva se ogni elemento del codominio “proviene” da al più un elemento del dominio (ossia in tutti i punti del codominio arriva al più una freccia). ◮ Osservazione 3.9. ◮ ◮ Questa può essere pensata come una definizione equivalente di iniettività. ◮ ◮ Dobbiamo controllare tutte le coppie. ◮

Lezione 6. Funzioni e classi di equivalenza

6–7

 4. La funzione  g è iniettiva. Infatti, se supponiamo che g (x1 , y1 ) = g (x2 , y2 ) , otteniamo (x1 + 2y1 , x1 + y1 , 2x1 − y1 ) = (x2 + 2y2 , x2 + y2 , 2x2 − y2 ) ,

ossia il sistema   x1 + 2y1 = x2 + 2y2 x1 + y 1 = x2 + y 2 .  2x1 − y1 = 2x2 − y2

Sottraendo ciascun membro della seconda equazione dal corrispondente membro della prima, otteniamo y1 = y2 , e quindi la seconda equazione diventa x1 = x2 . Abbiamo dimostrato che (x1 , y1 ) = (x2 , y2 ), ossia l’iniettività di g. ◮

5. La funzione idI è iniettiva. Infatti, se supponiamo che idI (x1 ) = idI (x2 ), abbiamo idI (x1 ) = x1 e idI (x2 ) = x2 , e quindi x1 = x2 . Abbiamo dimostrato l’iniettività di idI . ◮

Definizione 6.16. Sia f : I → J una funzione. La controimmagine di un elemento y ∈ J (rispetto alla funzione f ) è l’insieme degli elementi del dominio la cui immagine è y: Preimf (y) := {x ∈ I | f (x) = y}.

La controimmagine di un sottoinsieme K ⊂ J (rispetto alla funzione f ) è l’insieme degli elementi del dominio la cui immagine appartiene a K: Preimf (K) := {x ∈ I | f (x) ∈ K}.

Osservazione 6.17. Riscrivendo l’enunciato dell’Osservazione 6.11, otteniamo che una funzione f : I → J è surgettiva se e solo se Preimf (y) è formato da almeno un elemento per ogni y ∈ J . ◮ Riscrivendo l’enunciato dell’Osservazione 6.14, otteniamo che una funzione f : I → J è iniettiva se e solo se Preimf (y) è formato da al ◮ Notiamo che ci sono elementi di J che più un elemento per ogni y ∈ J . ◮ possono non appartenere all’immagine di f , e che quindi possono avere controimmagine vuota. Esempio 6.18. Consideriamo le funzioni dell’Esempio 6.2, di cui abbiamo già studiato la surgettività e l’iniettività, rispettivamente, negli Esempi 6.12 e 6.15. 1. Le controimmagini rispetto alla funzione f degli elementi del codominio di f sono: Preimf (a) = {1}, Preimf (b) = ∅, Preimf (c) = {2, 3} e Preimf (d) = {4}. Visto che Preimf (b) è vuoto, la funzione f non è surgettiva; visto che Preimf (c) è formato da due elementi, la funzione f non è iniettiva. La controimmagine dell’insieme K = {a, c} è Preimf (K) = {1, 2, 3}. Le controimmagini rispetto alla funzione fB degli elementi del codominio di fB sono: PreimfB (a) = {1}, PreimfB (b) = {3}, PreimfB (c) = {2} e PreimfB (d) = {4}. Visto che tutte e quattro queste controimmagini sono non vuote, la funzione fB è surgettiva; visto che tutte e quattro queste controimmagini sono formate da al più un elemento, la funzione f è iniettiva. La controimmagine dell’insieme K = {a, c} è PreimfB (K) = {1, 2}. c 2014 Gennaro Amendola

Versione 1.0

◮ Osservazione 6.14.

◮ Osservazione 6.14.

Controimmagine Preim· (·) Se l’elemento del codominio è una n-upla scriveremo semplicemente Preimf (x1 , x2 , . . . , xn ), invece di Preimf ((x1 , x2 , . . . , xn )). Preim· (·) Solitamente la controimmagine di un elemento o di un sottoinsieme rispetto a una funzione f è indicata con f −1 (·). Abbiamo scelto una notazione diversa per evitare confusione con la funzione inversa, indicata anch’essa con f −1 . ◮ Anche questa può essere pensata come una definizione equivalente di surgettività. ◮ ◮ Anche questa può essere pensata come una definizione equivalente di iniettività.

Lezione 6. Funzioni e classi di equivalenza

6–8

Le controimmagini rispetto alla funzione fI degli elementi del codominio di fI sono: PreimfI (a) = {1}, PreimfI (b) = {3}, PreimfI (c) = {2} e PreimfI (d) = ∅. Visto che PreimfI (d) è vuoto, la funzione fI non è surgettiva; visto che tutte e quattro queste controimmagini sono formate da al più un elemento, la funzione fI è iniettiva. La controimmagine dell’insieme K = {a, c} è PreimfI (K) = {1, 2}. Le controimmagini rispetto alla funzione fS degli elementi del codominio di fS sono: PreimfS (a) = {1, 3} e PreimfS (b) = {2}. Visto che tutte e due queste controimmagini sono non vuote, la funzione fS è surgettiva; visto che Preimf (a) è formato da due elementi, la funzione f non è iniettiva. La controimmagine dell’insieme K = {a, b} è Preimf (K) = {1, 2, 3}.

2. La controimmagine rispetto alla funzione q dell’elemento 4 (del codominio di q) è Preimq (4) = {±2}, infatti i numeri reali x tali che q(x) = x2 = 4 sono ±2. La controimmagine dell’insieme K = {a ∈ R | 0 6 a < 1} è Preimq (K) = {a ∈ R | − 1 < a < 1}. La controimmagine rispetto alla funzione qR dell’elemento 4 (del codominio di qR ) è PreimqR (4) = {2}, infatti c’è un solo x ∈ {a ∈ R | a > 0} tale che q(x) = x2 = 4, ossia 2. La controimmagine dell’insieme K = {a ∈ R | 0 6 a < 1} è PreimqR (K) = {a ∈ R | 0 6 a < 1}.

Ricordiamo che qR ha un dominio diverso rispetto a q.

3. La controimmagine rispetto alla funzione r+ dell’elemento 2 (del codominio di r+ ) è Preimr+ (2) = {4}, infatti c’è un solo x ∈ {a ∈ √ R | a > 0} tale che r+ (x) = x = 2, ossia 4. La controimmagine dell’insieme K = {a ∈ R | 0 6 a < 1} è Preimr+ (K) = {a ∈ R | 0 6 a < 1}. La controimmagine rispetto alla funzione r− dell’elemento −2 (del codominio di r− ) è Preimr+ (−2) = {4}, infatti c’è un solo x ∈ √ {a ∈ R | a > 0} tale che r− (x) = − x = −2, ossia 4. La controimmagine dell’insieme K = {a ∈ R | − 1 < a 6 0} è Preimr+ (K) = {a ∈ R | 0 6 a < 1}.

4. La controimmagine rispetto alla funzione g dell’elemento (1, 2, 7) (del codominio di g) è Preimg (1, 2, 7) = {(3,  −1)}, infatti c’è una 2 sola coppia (x, y) ∈ R tale che g (x, y) = (1, 2, 7), perché il sistema che si ottiene dall’equazione (x+2y, x+y, 2x−y) = (1, 2, 7),   x + 2y = 1 x+y =2 ,  2x − y = 7 ha solo la soluzione (3, −1).

5. La controimmagine rispetto alla funzione idI di un generico elemento x ∈ I (del codominio di idI ) è PreimidI (x) = {x}, infatti c’è un solo elemento y ∈ I tale che idI (y) = x, ossia y = x. La controimmagine di un qualsiasi sottoinsieme K di I è l’insieme K stesso. Definizione 6.19. Una funzione f : I → J è detta bigettiva o invertibile se è iniettiva e surgettiva. c 2014 Gennaro Amendola

Versione 1.0

Bigettività/invertibilità

Lezione 6. Funzioni e classi di equivalenza

6–9

Esempio 6.20. Consideriamo le funzioni dell’Esempio 6.2, di cui abbiamo già studiato la surgettività e l’iniettività, rispettivamente, negli Esempi 6.12 e 6.15. Abbiamo la seguente tabella. Funzione

Iniettiva?

Surgettiva?

Bigettiva?

f fB fI fS q qR r+ r− g idI

No Sì Sì No No Sì Sì Sì Sì Sì

No Sì No Sì No No No No No Sì

No Sì No No No No No No No Sì

Osservazione 6.21. Per l’Osservazione 6.17, una funzione f : I → J è bigettiva se e solo se Preimf (y) è formato da esattamente un elemento per ogni y ∈ J . Definizione 6.22. Data una funzione f : I → J bigettiva, la funzione f

−1

: J −→ I

Questa può essere pensata come una definizione equivalente di bigettività.

Funzione inversa Questo spiega perché si usa anche il nome “invertibile”.

che associa ad ogni elemento y di J l’unico elemento della controimmagine di y è detta inversa di f . Esempio 6.23. 1. L’inversa della funzione fB ◮ è la funzione −1 fB : {a, b, c, d} −→ {1, 2, 3, 4} definita da fB−1 (a) = 1, fB−1 (b) = 3, fB−1 (c) = 2 e fB−1 (d) = 4 (abbiamo trovato le quattro controimmagini nell’Esempio 6.18-1). 2. Consideriamo la funzione q R : {a ∈ R | a > 0} ∋ x 7−→ x2 ∈ ◮, che è invertibile. L’inversa della funzione q R {a ∈ R | a > 0} ◮ √ −1 è la funzione q R : {a ∈ R | a > 0} ∋ x 7−→ x ∈ {a ∈ R | a > 0}, infatti per ogni x nel codominio {a ∈ R | a > 0} abbiamo √ PreimqR (x) = { x}, perché l’unico elemento y del dominio {a ∈ √ R | a > 0} tale che q R (y) = x è tale che y 2 = x, ossia y = x. √ 3. Consideriamo la funzione r + : {a ∈ R | a > 0} ∋ x 7−→ x ∈ {a ∈ R | a > 0} ◮, che è invertibile. L’inversa della funzione r + è la 2 funzione r −1 + : {a ∈ R | a > 0} ∋ x 7−→ x ∈ {a ∈ R | a > 0}, infatti per  2 ogni x nel codominio {a ∈ R | a > 0} abbiamo Preimr+ (x) = x , perché l’unico elemento y del dominio {a ∈ R | a > 0} tale √ che r+ (y) = x è tale che y = x, ossia y = x2 .

4. Consideriamo la funzione h : R2 ∋ (x, y) 7−→ (x+ 2y, x+ y) ∈ R2 ◮. La controimmagine di un elemento (a, b) ∈ R2 del codominio  è 2 formata delle coppie (x, y) ∈ R del dominio tali che h (x, y) = (a, b), ossia tali che (x + 2y, x + y) = (a, b), ossia tali che  x + 2y = a . x+y =b

c 2014 Gennaro Amendola

Versione 1.0

−1 fB :

◮ Definita nell’Esempio 6.2-1 e di cui abbiamo studiato la bigettività nell’Esempio 6.20. ◮ ◮ È simile alla funzione qR dell’Esempio 6.22, ma abbiamo ristretto il codominio per avere una funzione surgettiva.

◮ Definita nell’Esempio 6.12-3.

◮ Questa funzione è simile alla funzione g, definita nell’Esempio 6.2-4, ma cambia sia il codominio che la legge.

Lezione 6. Funzioni e classi di equivalenza

6–10

Questo sistema ha una sola soluzione, (x, y) = (2b−a, a−b), quindi abbiamo Preimh (a, b) = {(2b − a, a − b)}. Allora la funzione h è bigettiva ◮ e la sua inversa è h−1 : R2 ∋ (a, b) 7−→ (2b − a, a − b) ∈ ◮. R2 ◮ 5. L’inversa della per ogni x ∈ I

funzione idI è la funzione id−1 I ◮ abbiamo PreimidI (x) = {x} ◮ ◮.

= idI stessa, infatti

◮ Osservazione 6.21. ◮ ◮ Le lettere che indicano le variabili non contano: avremmo potuto anche scrivere h−1 : R2 ∋ (x, y) 7−→ (2y − x, x − y) ∈ R2 . ◮ Esempio 6.18-5. ◮ ◮

Definizione 6.24. Date due funzioni f : I → J e g : J → K, la composizione di f e g è la funzione  g ◦ f : I ∋ x 7−→ g f (x) ∈ K.

Composizione I

f

// J

g

66// K .

g◦f



Il dominio di g deve coincidere con il codo-

Esempio 6.25. 1. Consideriamo le funzioni f e fB definite nell’E- minio di f , altrimenti non ha senso definire sempio 6.2-1, e consideriamo la funzione la composizione di f e g. col : {a, b, c, d} −→ {bianco, rosso, verde} definita da col(a) = “bianco”, col(b) = “rosso”, col(c) = “verde”, col(d) = “rosso”. col : La composizione col ◦ f : {1, 2,3, 4} −→ {bianco, rosso, verde} è definita da col ◦ f (1) = col f (1) = col(a) = “bianco”, col ◦ f (2) = col f (2) = col(c) = “verde”, col ◦ f (3) = col f (3) = col(c) = “verde”, col ◦ f (4) = col f (4) = col(d) = “rosso”. col ◦ f : La composizione col ◦ fB : {1, 2, 3, 4} −→ {bianco, rosso, verde} è definita da col ◦ fB (1) = col fB (1) = col(a) = “bianco”, col  ◦ fB (2) = col fB (2) = col(c) = “verde”, col ◦ f (3) = col f (3) = B B  col ◦ fB : col(b) = “rosso”, col ◦ fB (4) = col fB (4) = col(d) = “rosso”. Non si può fare la composizione fB ◦f di f e fB perché il codominio di f e il dominio di fB sono diversi. Analogamente, non si può fare la composizione f ◦ col di col e f perché il codominio di col e il dominio di f sono diversi. 2. Consideriamo la funzione q definita nell’Esempio 6.2-2, e consideriamo la funzione t : R ∋ x 7−→ x + 1 ∈ R.  La composizione t ◦ q : R −→ R è definita da t ◦ q(x) = t q(x) =  t x2 = x2 + 1. Invece la composizione q ◦ t : R −→ R è definita  da q ◦ t(x) = q t(x) = q(x + 1) = (x + 1)2 .

In questo caso possiamo fare entrambe le composizioni, t ◦ q e q ◦ t, perché il codominio di una funzione coincide con il dominio dell’altra, e viceversa, me le due composizioni sono diverse.

3. Consideriamo la funzione g definita nell’Esempio 6.2-4, e consideriamo la funzione p : R3 ∋ (x, y, z) 7−→ (y, z, x, 2x) ∈ R4 . La composizione p ◦ g : R2 −→ R4 è definita da     p◦g(x, y) = p g (x, y) = p (x+2y, x+y, 2x−y) = x+y, 2x−y, x+2y, 2(x+2y) . Invece la composizione g ◦ p non si può fare.

4. La composizione dell’identità idI e di una qualsiasi funzione f : I −→ J è la funzione f ◦ idI = f : I −→ J , infatti abbiamo f ◦ idI (x) =  f idI (x) = f (x) per ogni x ∈ I. Analogamente, la composizione di una qualsiasi funzione f : I −→ J e dell’identità idJ è la funzione  idJ ◦ f = f : I −→ J , infatti abbiamo idJ ◦ f (x) = idJ f (x) = f (x) per ogni x ∈ I.

Proposizione 6.26. Una funzione f : I → J è bigettiva se e solo se esiste una funzione g : J → I tale che g ◦ f = idI e f ◦ g = idJ . Inoltre, questa funzione g è l’inversa di f , ossia è f −1 . c 2014 Gennaro Amendola

Versione 1.0

I

f

// J idI

g

66// I

e J

g

// I idJ

f

66// J

.

Lezione 6. Funzioni e classi di equivalenza

6–11

Dimostrazione. Cominciamo dimostrando che la funzione f è invertibile se e solo se esiste una funzione g tale che g ◦ f = idI and f ◦ g = idJ . Dobbiamo dimostrare due implicazioni. Supponiamo che f sia invertibile e dimostriamo l’esistenza di g. La funzione g cercata è la funzione f −1 definita sopra ◮, infatti dalla definizione e dal fatto che f è bigettiva abbiamo che f (x) = y se e solo se f −1 (y) = x, e quindi f −1 ◦ f (x) = x

∀x∈I

e

f ◦ f −1 (y) = y

◮ Definizione 6.22.

∀ y ∈ J,

ossia f −1 ◦ f = idI and f ◦ f −1 = idJ . Viceversa, supponiamo che esista una funzione g tale che g ◦ f = idI e f ◦ g = idJ , e dimostriamo che f è bigettiva. Supponiamo per assurdo che f non sia iniettiva; allora esistono x1 , x2 ∈ I diversi tali che f (x1 ) = f (x2 ), e quindi abbiamo   idI (x1 ) = g ◦ f (x1 ) = g f (x1 ) = g f (x2 ) = g ◦ f (x2 ) = idI (x2 ) ,

che contraddice il fatto che idI sia iniettiva ◮. Supponiamo ora per assurdo che f non sia surgettiva; allora esiste y ∈ J tale che y 6∈ Im(f ), ma abbiamo  y = idJ (y) = f ◦ g(y) = f g(y) , che contraddice il fatto che y 6∈ Im(f ) ◮. Quindi f è sia iniettiva che surgettiva, ossia è bigettiva. Concludiamo dimostrando che g = f −1 . Sia y ∈ J , e sia x l’unico elemento di Preimf (y) ◮. Abbiamo x = idI (x) = g ◦ f (x) = g(y), ossia g associa a y l’unico elemento della controimmagine di y, ossia ◮. g = f −1 ◮

◮ Esempio 6.15-5.

◮ Abbiamo che y è l’immagine rispetto a f di g(y).

◮ Abbiamo appena dimostrato che f è invertibile, quindi Preimf (y) è formato da esattamente un elemento (Osservazione 6.21). ◮ ◮ Definizione 6.22.

Osservazione 6.27. Abbiamo che l’inversa di una funzione (bigettiva) è bigettiva, e la sua inversa è la funzione stessa. Più precisamente, se f : I → J è una funzione bigettiva, abbiamo che −1 f −1 = f.

Per verificarlo è sufficiente notare che f ◦ f −1 (y) = y

∀y∈J

e

f −1 ◦ f (x) = x ∀ x ∈ I,

ossia f ◦ f −1 = idJ e f −1 ◦ f = idI , e dedurre, per la proposizione precedente, che f −1 è bigettiva e che f è l’inversa di f −1 . Esempio 6.28. Consideriamo le funzioni invertibili dell’Esempio 6.23. 1. Abbiamo fB−1 ◦ fB = id{1,2,3,4} e fB ◦ fB−1 = id{a,b,c,d} . ◮ Inoltre, −1 ◮ abbiamo che fB è l’inversa di fB−1 , i.e. fB = fB−1 .◮ 2. L’inversa della funzione

◮ Abbiamo visto sopra come calcolare la composizione. ◮ ◮ Abbiamo l’inversa.

visto

sopra

come

calcolare

q R : {a ∈ R | a > 0} ∋ x 7−→ x2 ∈ {a ∈ R | a > 0}

è la funzione ◮

r+ : {a ∈ R | a > 0} ∋ x 7−→



◮ Definita nell’Esempio 6.12-3.

x ∈ {a ∈ R | a > 0}.

Abbiamo r + ◦ q R = id{a∈R | a>0} and q R ◦ r+ = id{a∈R | a>0} . ◮ −1 Abbiamo q −1 R = r+ e r+ ◦ qR.

3. Abbiamo h−1 ◦ h = idR2 e anche h ◦ h−1 = idR2 .

−1 4. Abbiamo id−1 I ◦ idI = idI e anche idI ◦ idI = idI . c 2014 Gennaro Amendola

◮ Abbiamo visto sopra come calcolare la composizione.

Sono tutte funzioni identità.

Versione 1.0

Lezione 6. Funzioni e classi di equivalenza

6.2

6–12

Classi di equivalenza

Definizione 6.29. Dato un insieme I, una relazione su I è un sottoinsieme R del prodotto cartesiano I × I ◮; un elemento x è detto in relazione con un elemento y (rispetto a R) se (x, y) ∈ R; in tal caso si usa la notazione x ∼R y. Una relazione di equivalenza è una relazione che soddisfa le seguenti proprietà: • (x, x) ∈ R per ogni x ∈ I (proprietà riflessiva),

Relazione (di equivalenza) ◮R ⊂ I × I

Proprietà riflessiva

• se (x, y) ∈ R allora (y, x) ∈ R per ogni x, y ∈ I (proprietà simmetrica),

Proprietà simmetrica

• se (x, y) ∈ R e (y, z) ∈ R allora (x, z) ∈ R per ogni x, y, z ∈ I (proprietà transitiva). In tal caso, due elementi x, y ∈ I che sono in relazione rispetto a R sono detti equivalenti (rispetto a R).

Proprietà transitiva

Equivalenza

Notazione 6.30. Solitamente, per caratterizzare una relazione di equivalenza, si danno condizioni, e non si indica l’insieme R esplicitamente. Supponiamo che ci sia una proprietà P tale che x, y ∈ I sono in relazione se e solo se P (x, y) è vera, allora definiremo la relazione nel modo seguente: x ∼R y

se e solo se

P (x, y) è vera.

Con un lieve abuso di notazione, indicheremo la relazione direttamente con ∼R . L’insieme R = {(x, y) ∈ I × I | P (x, y) è vera} non viene indicato esplicitamente. Esempio 6.31. 1. Consideriamo l’insieme I = {1, 2, 3, 4, 5, 6} e la relazione ◮  R1 = (x, y) ∈ I 2 x e y sono o entrambi pari o entrambi dispari =  = (1, 1), (1, 3), (1, 5), (3, 1), (3, 3), (3, 5), (5, 1), (5, 3), (5, 5), (2, 2), (2, 4), (2, 6), (4, 2), (4, 4), (4, 6), (6, 2), (6, 4), (6, 6) .

L’insieme è automaticamente definito dalla proprietà.

◮ R1 è una relazione, infatti R1 ⊂ I × I.

La relazione R1 può essere definita anche nel modo seguente:

x ∼R1 y

se e solo se

x e y sono o entrambi pari o entrambi dispari.

Ad esempio, abbiamo che 1 è in relazione con 1, 3 e 5 ◮, ma non con 2, 4 e 6. Questa relazione è una relazione di equivalenza, infatti soddisfa le tre proprietà della definizione. Proprietà riflessiva: per ogni x ∈ I abbiamo x ∼R1 x. È ovvio. ◮ Proprietà simmetrica: per ogni x, y ∈ I abbiamo x ∼R1 y ⇒ y ∼R1 x. È ovvio. ◮ Proprietà transitiva: per ogni x, y, z ∈ I abbiamo

◮ 1 ∼R1 1, 1 ∼R1 3, 1 ∼R1 5.

◮ Non c’è molto da dimostrare: o x e x sono entrambi pari, o x e x sono entrambi dispari. ◮ Se abbiamo x ∼R1 y, x e y sono o entrambi pari o entrambi dispari, e quindi y ∼R1 x.

x ∼R1 y e y ∼R1 z ⇒ x ∼R1 z.

Infatti, consideriamo y: se y è pari, anche x e z sono pari ◮, quindi abbiamo x ∼R1 z; analogamente, se y è dispari, anche x e z sono dispari, quindi abbiamo x ∼R1 z. c 2014 Gennaro Amendola

Versione 1.0

◮ x ∼R1 y e y ∼R1 z.

Lezione 6. Funzioni e classi di equivalenza

6–13 ◮ La “regola” è la stessa del punto precedente, ma cambia l’insieme su cui è definita.

2. Consideriamo la relazione R2 su Z definita da ◮

x ∼R2 y

se e solo se

x e y sono o entrambi pari o entrambi dispari.

Abbiamo  R2 = (x, y) ∈ Z2 x e y sono o entrambi pari o entrambi dispari . Tutti i numeri dispari sono in relazione con i numeri dispari, e non con i pari. Tutti i numeri pari sono in relazione con i numeri pari, e non con i dispari. Questa relazione è una relazione di equivalenza, infatti soddisfa le tre proprietà della definizione: la dimostrazione è la stessa del punto precedente, quindi la omettiamo.

3. Consideriamo l’insieme I = {automobili} e la relazione R3 definita da a1 ∼R3 a2

se e solo se

a1 e a2 hanno lo stesso colore.

Una automobile gialla è in relazione con tutte le automobili gialle, ma non con le altre; una automobile rossa è in relazione con tutte le rosse, ma non con le altre; e così via. Questa relazione è una relazione di equivalenza, infatti soddisfa le tre proprietà della definizione. Proprietà riflessiva: per ogni a ∈ I abbiamo a ∼R3 a. È ovvio. ◮ Proprietà simmetrica: per ogni a1 , a2 ∈ I abbiamo a1 ∼R3 a2 ⇒ a2 ∼R3 a1 . È ovvio. ◮ Proprietà transitiva: per ogni a1 , a2 , a3 ∈ I abbiamo

◮ Non c’è molto da dimostrare: ogni automobile a ha lo stesso colore di sé stessa. ◮ Se a1 e a2 hanno lo stesso colore, anche a2 e a1 hanno lo stesso colore.

a1 ∼R3 a2 e a2 ∼R3 a3 ⇒ a1 ∼R3 a3 .

Infatti, a1 e a3 hanno lo stesso colore di a2 ◮, quindi a1 e a3 hanno lo stesso colore e abbiamo a1 ∼R3 a3 .

◮ a1 ∼R3 a2 e a2 ∼R3 a3 .

4. Consideriamo sull’insieme N la relazione R definita da n ∼R m

se e solo se

n divide m.

Ad esempio, 2 è in relazione con tutti i numeri naturali pari (0, 2, 4, . . . ), 12 è in relazione con tutti i numeri naturali divisibili per 12 (0, 12, 24, . . . ), mentre 1 è in relazione con tutti i numeri naturali (infatti 1 divide tutti i numeri naturali). Questa relazione non è una relazione di equivalenza, infatti soddisfa solo due delle tre proprietà della definizione (non è simmetrica). Proprietà riflessiva: per ogni n ∈ N abbiamo n ∼R n. Infatti, ogni numero divide sé stesso. ◮ Proprietà simmetrica (non soddisfatta): per ogni n, m ∈ N abbiamo n ∼R m ⇒ m ∼R n. Non è verificata, infatti abbiamo che 1 divide 2, ma 2 non divide 1 ◮. Proprietà transitiva: per ogni n, m, l ∈ N abbiamo n ∼R m e m ∼R l ⇒ n ∼R l.

Infatti, se n ∼R m e m ∼R l, abbiamo che esiste k ∈ N tale che m = k · n e che esiste h ∈ N tale che l = h · m. Quindi abbiamo l = h · m = h · (k · n) = (h · k) · n, ossia n divide l e n ∼R l. c 2014 Gennaro Amendola

Versione 1.0

◮ n = 1 · n.

◮ Non esiste nessun numero naturale k tale che 1 = k · 2.

Lezione 6. Funzioni e classi di equivalenza

6–14

5. Consideriamo la relazione R sull’insieme R definita da x ∼R y

se e solo se

y = x + 1.

Ad esempio, abbiamo 3 ∼R 4, −6 ∼R −5, π ∼R π + 1, ma 3 non è in relazione con 5 né con 2. ◮ Questa relazione non è una relazione di equivalenza, infatti non soddisfa nessuna delle tre proprietà della definizione. Proprietà riflessiva (non soddisfatta): per ogni x ∈ R abbiamo x ∼R x. Non è verificata, infatti abbiamo che 0 non è in relazione con sé stesso ◮. Proprietà simmetrica (non soddisfatta): per ogni x, y ∈ R abbiamo x ∼R y ⇒ y ∼R x. Non è verificata, infatti abbiamo che 2 ∼R 3 ma 3 non è in relazione con 2. ◮. Proprietà transitiva (non soddisfatta): per ogni n, m, l ∈ N abbiamo n ∼R m e m ∼R l ⇒ n ∼R l. Non è verificata, infatti abbiamo che 2 ∼R 3 e 3 ∼R 4, ma 2 non è in relazione con 4. ◮. Definizione 6.32. Sia ∼R una relazione di equivalenza su un insieme I. Dato un elemento x ∈ I, il sottoinsieme I formato dagli elementi che sono equivalenti a x è detto classe di equivalenza di x per la relazione di equivalenza ∼R , ed è indicato con

◮ Ogni numero reale è in relazione solo con quello ottenuto sommandogli 1.

◮ 0 6= 0 + 1.

◮ 3 = 2 + 1, ma 2 6= 3 + 1.

◮ 3 = 2 + 1 e 4 = 3 + 1, ma 4 6= 2 + 1.

Classe di equivalenza

[x]∼R .

L’elemento x è detto rappresentante della classe di equivalenza [x]∼R .

Proposizione 6.33. Sia ∼R una relazione di equivalenza su un insieme I. Se x è equivalente a y, la classe di equivalenza di x è uguale a quella di y. Se invece x non è equivalente a y, la classe di equivalenza di x e quella di y hanno intersezione vuota.

Dimostrazione. Supponiamo che x ∼R y. Allora, per la proprietà transitiva, un elemento è equivalente a x se e solo se è equivalente a y. Quindi le classi di equivalenza di x e di y coincidono. Supponiamo ora che x e y non sono equivalenti. Allora, sempre per la proprietà transitiva, un elemento equivalente a x non può essere equivalente a y, e viceversa ◮. Quindi le classi di equivalenza di x e di y hanno intersezione vuota. Osservazione 6.34. Dalla proposizione precedente deduciamo che la scelta del rappresentante è arbitraria ◮. È, però, importante notare che quando usiamo un rappresentante invece della classe stessa, dobbiamo verificare che tutto ciò che viene fatto non dipende dal rappresentante scelto ◮. Esempio 6.35. Consideriamo le relazioni di equivalenza definite nell’Esempio 6.31. 1. La relazione di equivalenza definita nell’Esempio 6.31-1 ha due classi di equivalenza: {1, 3, 5} e {2, 4, 6}. Gli elementi 1, 3, 5 sono i rappresentanti della classe di equivalenza [1]∼R = [3]∼R = 1 1 [5]∼R = {1, 3, 5}; invece, gli elementi 2, 4, 6 sono i rappresentanti 1

c 2014 Gennaro Amendola

Versione 1.0

Rappresentante

x ∼R y



non (x ∼R y)

[x]∼R = [y]∼R . ⇒

[x]∼R ∩ [y]∼R = ∅.

◮ Se per assurdo avessimo z ∼R x e z ∼R y, avremmo x ∼R y che è assurdo (stiamo supponendo che x e y non sono equivalenti). ◮ Ognuno può scegliere come rappresentante di una classe di equivalenza un qualsiasi elemento che sta nella classe. ◮ Appunto perché la scelta è arbitraria, dobbiamo stare attenti che non ci siano cambiamenti in ciò che viene fatto se qualcun altro sceglie un rappresentante diverso.

Lezione 6. Funzioni e classi di equivalenza

6–15

della classe di equivalenza [2]∼R = [4]∼R = [6]∼R = {2, 4, 6}. 1 1 1 Gli elementi 1, 3, 5 sono tra loro equivalenti e non sono equivalenti agli elementi 2, 4, 6, e viceversa; infatti, le due classi di equivalenza hanno intersezione vuota. 2. Anche la relazione di equivalenza definita nell’Esempio 6.31-2 ha due classi di equivalenza: {. . . , −1, 1, 3, 5, . . .} e {. . . , −2, 0, 2, 4, . . .}. I numeri dispari sono i rappresentanti della classe di equivalenza {. . . , −1, 1, 3, 5, . . .}; invece, i numeri pari sono i rappresentanti della classe di equivalenza {. . . , −2, 0, 2, 4, . . .}. ◮ Tutti i numeri di- ◮ Ad esempio, abbiamo [9]∼R2 = [13]∼R2 spari sono tra loro equivalenti e non sono equivalenti ai numeri pari, {. . . , −1, 1, 3, 5, . . .} e [12]∼R2 e viceversa; infatti, le due classi di equivalenza hanno intersezione [18]∼R2 = {. . . , −2, 0, 2, 4, . . .}. vuota. 3. La relazione di equivalenza definita nell’Esempio 6.31-3 ha varie classi di equivalenza: {automobili gialle}, {automobili rosse}, {automobili verdi}, ecc. ◮ Una qualsiasi automobile gialla rappre- ◮ C’è una senta la classe di equivalenza {automobili gialle}; una qualsiasi au- colore. tomobile rossa rappresenta la classe di equivalenza {automobili rosse}; una qualsiasi automobile verde rappresenta la classe di equivalenza {automobili verdi}; e così via. Tutte le automobili gialle sono tra loro equivalenti e non sono equivalenti a nessun’altra automobile di un altro colore, tutte le automobili rosse sono tra loro equivalenti e non sono equivalenti a nessun’altra automobile di un altro colore, tutte le automobili verdi sono tra loro equivalenti e non sono equivalenti a nessun’altra automobile di un altro colore, e così via; infatti, le classi di equivalenza hanno intersezione vuota. Osservazione 6.36. Sia ∼R una relazione di equivalenza su un insieme I. Ogni elemento di I appartiene a una classe di equivalenza e due classi di equivalenza diverse hanno intersezione vuota, quindi l’insieme I è diviso in sottoinsiemi ogni coppia dei quali ha intersezione vuota. Una tale suddivisione è detta partizione di I.

Definizione 6.37. L’insieme delle classi di equivalenza per una relazione di equivalenza ∼R su un insieme I è detto insieme quoziente di I per la relazione di equivalenza ∼R . Esempio 6.38. Consideriamo le relazioni di equivalenza definite nell’Esempio 6.31, di cui abbiamo descritto le classi di equivalenza nell’Esempio 6.35. 1. Le due classi di equivalenza [1]∼R e [2]∼R ◮ hanno intersezione 1 1 vuota e la loro unione è tutto l’insieme I: [1]∼R ∩ [2]∼R = ∅

e

[1]∼R ∪ [2]∼R = I; 1 1 o n è esse formano una partizione di I. L’insieme [1]∼R , [2]∼R 1 1 l’insieme quoziente dell’insieme {1, 2, 3, 4, 5, 6} per la relazione di equivalenza ∼R1 . 1

1

2. Le due classi di equivalenza [0]∼R e [1]∼R ◮ hanno intersezione 2 2 vuota e la loro unione è tutto l’insieme Z: [0]∼R ∩ [1]∼R = ∅ 2

c 2014 Gennaro Amendola

2

and

[0]∼R ∪ [1]∼R = Z; 2

2

Versione 1.0

= =

classe di equivalenza per ogni

Partizione

Insieme quoziente         

        

◮ Abbiamo scelto 1 e 2 come rappresentanti, ma sarebbe stato uguale se avessimo scelto altri rappresentanti: 3 o 5 al posto di 1, e 4 o 6 al posto di 2.

◮ Abbiamo scelto 0 e 1 come rappresentanti, ma sarebbe stato uguale se avessimo scelto altri rappresentanti: un qualsiasi numero intero pari al posto di 0, e un qualsiasi numero intero dispari al posto di 1.

Lezione 6. Funzioni e classi di equivalenza

6–16

o n è esse formano una partizione di Z. L’insieme [0]∼R , [1]∼R 2 2 l’insieme quoziente dell’insieme Z per la relazione di equivalenza ∼R2 .

3. Le classi di equivalenza {automobili gialle}, {automobili rosse}, {automobili verdi}, ecc. hanno a due a due intersezione vuota e la loro unione è tutto l’insieme {automobili}; esse formano una partizione di {automobili}. L’insieme ◮  {automobili gialle}, {automobili rosse}, {automobili verdi}, . . . è l’insieme quoziente dell’insieme {automobili} per la relazione di equivalenza ∼R3 .

c 2014 Gennaro Amendola

Versione 1.0

◮ Questo insieme quoziente può essere pensato come un insieme di colori ({giallo, rosso, verde, . . .}), ma, volendo essere precisi, non è un insieme di colori: i suoi elementi non sono colori, sono classi di equivalenza (ossia sottoinsiemi dell’insieme {automobili}).

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 6/S1 Funzioni e classi di equivalenza 1

Sessione di Studio 6.1

Funzioni e classi di equivalenza

Lezione 6. Funzioni e classi di equivalenza

6–17

Sessione di Studio 6.1  Esercizio 6.1. Trova l’immagine della funzione f : R ∋ x 7−→ x2 , −x2 ∈ 2 R dell’elemento (1, −1) e dell’insieme I =  . Trova 2la controimmagine (a, a) ∈ R a ∈ R .  2 x ∈ R = {x ∈ R | x > 0}, quindi abbiaSoluzione. Abbiamo x ∈ R  mo Im(f ) = (a, −a) ∈ R2 a ∈ R con a > 0 . La controimmagine di (1, −1)  è formata dai numeri reali tali che f (x) = (1, −1), ossia x2 , −x2 = (1, −1). Le soluzioni del sistema  2 x =1 sono x = ±1, quindi Preimf (1, −1) = {±1}. −x2 = −1 per la controimmagine di I, risolviamo il sistema  Analogamente, x2 = a ◮ x2 = a ha soluzioni solo per a > 0, men. L’unica soluzione è x = 0, ◮ quindi Preimf (I) = {0}. −x2 = a tre −x2 = a ha soluzioni solo per a 6 0, quindi a = 0. Il sistema

Esercizio 6.2. Trova i punti fissi della funzione f : R2 ∋ (x, y) 7−→ (y − x, 4y − 6x) ∈ R2 .

soluzione x = 0.

Soluzione.  Una coppia (x, y) ∈ R2 è un punto fisso di f se f (x, y) = y−x=x (x, y), ossia , le cui soluzioni sono (x, y) = (α, 2α) con 4y − 6x = y α ∈ R.  Esercizio 6.3. La funzione f : R3 ∋ (x, y, z) 7−→ y + 1, x2 + y 2 , x − 2z ∈ R3 è iniettiva? È surgettiva?

Soluzione. Cerchiamo di trovare la controimmagine di un elemento (a, b, c) del codominio, ossia di risolvere f (x, y, z) = (a, b, c).  L’equazione  y+1=a  y + 1, x2 + y 2 , x − 2z = (a, b, c) è equivalente al sistema x2 + y 2 = b .  x − 2z = c Abbiamo b > 0, quindi f non è surgettiva (per esempio, Preimf (0, −1, 0) = ∅). Inoltre, trovando x dalla  terza equazione e y dalla prima, abbiamo che  y =a−1 (c + 2z)2 + (a − 1)2 = b . La seconda equail sistema è equivalente a  x = c + 2z  zione è 4z 2 +4cz+c2 +(a−1)2 −b = 0. Se 16c2 −16 c2 + (a − 1)2 − b > 0 √ −4c± 16c2 −16(c2 +(a−1)2 −b) . Queci sono due soluzioni per z, ossia z1/2 = 8 sto succede per esempio se c = 0 e a = b = 1 (precisamente, 16 > 0), quindi # Preimf (1, 1, 0) = 2 e f non è iniettiva.

Esercizio 6.4. Dimostra che la funzione f : R2 ∋ (x1 , x2 ) 7−→ (x2 − x1 , 3x1 − 2x2 ) ∈ R2 è bigettiva, e calcola la sua inversa. Soluzione. Cerchiamo la controimmagine Preimf (a1 , a2 ) di un elemento generico (a1 , a2 ) del codominio, ossia cerchiamo le soluzioni del siste x 2 − x 1 = a1 . C’è esattamente una soluzione per ogni (a1 , a2 ), ma 3x1 − 2x2 = a2 c 2014 Gennaro Amendola

Versione 1.0



x2 = 0 −x2 = 0

ha

Lezione 6. Funzioni e classi di equivalenza

6–18

ossia (x1 , x2 ) = (2a1 + a2 , 3a1 + a2 ), quindi la funzione è bigettiva, e la sua inversa è f −1 : R2 ∋ (a1 , a2 ) 7−→ (2a1 + a2 , 3a1 + a2 ) ∈ R2 . Esercizio 6.5. Scrivi esplicitamente le funzioni g ◦ f e f ◦ g con  f : R ∋ x 7−→ x, x2 , x − 1 ∈ R3 e g : R3 ∋ (a, b, c) 7−→ (a−1, b−c) ∈ R2 ,

se possono essere definite.

Soluzione. Abbiamo g ◦ f : R 7−→ R2 con    g f (x) = g x, x2 , x − 1 = x − 1, x2 − (x − 1) .

Visto che il dominio di f e il codominio di g sono diversi, la composizione di g e f non può essere definita. Esercizio 6.6. Dimostra che la relazione su Z tale che n ∼R m

se e solo se

m − n è un multiplo di 3

è una relazione di equivalenza. Trova l’insieme quoziente.

Soluzione. Dimostriamo le tre proprietà della definizione. ◮ Proprietà riflessiva: per ogni n ∈ Z abbiamo n − n = 0 = 0 · 3.

◮ Definizione 6.29.

Proprietà simmetrica: per ogni n, m ∈ Z, se abbiamo m − n = k · 3, con k ∈ Z, allora abbiamo n − m = (−k) · 3.

Proprietà transitiva: per ogni n, m, l ∈ Z, se abbiamo m − n = k · 3, con k ∈ Z, e l − m = h · 3, con h ∈ Z allora abbiamo l − n = (l − m) + (m − n) = h · 3 + k · 3 = (h + k) · 3. La classe di equivalenza di 0 è [0]∼R = {. . . , −3, 0, 3, 6, . . .}, la classe di equivalenza di 1 è [1]∼R = {. . . , −2, 1, 4, 7, . . .}, la classe di equivalenza di 2 è [2]∼R = {. . . , −1, 2, 5, 8, . . .}. L’unione di queste tre classi di equivalenza è tutto Z, quindi l’insieme quoziente è  {. . . , −3, 0, 3, 6, . . .}, {. . . , −2, 1, 4, 7, . . .}, {. . . , −1, 2, 5, 8, . . .} .

Esercizio 6.7. La relazione ∼R1 su R tale che x ∼R1 y se e solo se x < y è una relazione di equivalenza? La relazione ∼R2 su {proposizioni} tale che P ∼R2 Q

se e solo se

è una relazione di equivalenza?

P ⇒ Q è vera

Soluzione. La relazione R1 non è una relazione di equivalenza perché non è riflessiva, infatti abbiamo che 0 non è legato a sé stesso (0 < 0 è falso). La relazione R2 non è una relazione di equivalenza perché non è simmetrica, infatti abbiamo che la proposizione x = 0 implica la proposizione x > 0, ma l’implicazione inversa non è vera (la proposizione x > 0 non implica la proposizione x = 0), quindi la proposizione x = 0 è in relazione con la proposizione x > 0 ma la proposizione x > 0 non è in relazione con la proposizione x = 0.

c 2014 Gennaro Amendola

Versione 1.0

(x = 0) ⇒ (x > 0) è vera, ma (x > 0) ⇒ (x = 0) non è vera.

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 6/S2 Funzioni e classi di equivalenza 1

Sessione di Studio 6.2

Funzioni e classi di equivalenza

Lezione 6. Funzioni e classi di equivalenza

6–19

Sessione di Studio 6.2 Esercizio 6.8. Trova l’immagine della funzione f : R ∋ (x, y) 7−→ (x − y, y − x) ∈ R2 .

Trova la controimmagine dell’insieme I = {(1, −1), (0, 0), (1, 1)} rispetto a f. Esercizio 6.9. Trova i punti fissi della funzione f : R ∋ x 7−→ x3 ∈ R.

Esercizio 6.10. La funzione f : R3 ∋ (x, y, z) 7−→ (x − y, y − z, z − x) ∈ R3

è iniettiva? È surgettiva?

Esercizio 6.11. Dimostra che la funzione f : R3 ∋ (x, y, z) 7−→ (x + y, y + z, z + x) ∈ R3

è bigettiva, e calcola la sua inversa.

Esercizio 6.12. Fai la controprova, con il calcolo della composizione, che l’inversa f −1 calcolata nell’Esercizio 6.4 è davvero l’inversa di f . Esercizio 6.13. Scrivi esplicitamente le funzioni g ◦ f e f ◦ g con  f : R ∋ x 7−→ 2, x, x2 − x ∈ R3 e g : R2 ∋ (a, b) 7−→ a2 −b ∈ R,

se possono essere definite.

Esercizio 6.14. Dimostra che la relazione su R2 tale che (x1 , x2 ) ∼R (y1 , y2 ) se e solo se x2 = y2 è una relazione di equivalenza. Trova l’insieme quoziente. Esercizio 6.15. La relazione ∼R1 su R tale che x ∼R1 y se e solo se x 6 y è una relazione di equivalenza? La relazione ∼R2 su R[x] tale che p(x) ∼R2 q(x)

se e solo se

p(x) e q(x) hanno uno zero comune

è una relazione di equivalenza?

c 2014 Gennaro Amendola

Versione 1.0

Lezione 6. Funzioni e classi di equivalenza

6–20

 Risultato dell’Esercizio 6.8. Im(f ) =  (a, −a) ∈ R 2 a ∈ R .  Preimf (I) = (a + 1, a) ∈ R2 a ∈ R ∪ (a, a) ∈ R2 a ∈ R .

Risultato dell’Esercizio 6.9. −1, 0, 1. ◮

Risultato dell’Esercizio 6.10. Non iniettiva: f (1, 1, 1) = f (0, 0, 0). Non surgettiva: (1, 0, 0) 6∈ Im(f ).

◮ Abbiamo già visto nella Sezione 5.4 come trovare le soluzioni di equazioni polinomiali.

Risultato dell’Esercizio 6.11. Dimostra che la controimmagine Preimf (a, b, c) di un elemento generico (a, b, c) del codominio è formata daesattamente a+b−c −a+b+c ∈ R3 . un elemento. f −1 : R3 ∋ (a, b, c) 7−→ a−b+c 2 , 2 , 2

Risultato dell’Esercizio 6.12. Calcola esplicitamente f ◦f −1 e f −1 ◦f , dimostrando che f ◦f −1 : R2 ∋ (x1 , x2 ) 7−→ (x1 , x2 ) ∈ R2

e

Proposizione 6.26.

f −1 ◦f : R2 ∋ (a1 , a2 ) 7−→ (a1 , a2 ) ∈ R2 .

Risultato dell’Esercizio 6.13. g ◦ f non può essere definita.  2  f ◦ g : R2 ∋ (a, b) 7−→ 2, a2 − b, a2 − b − a2 − b ∈ R3 .

Risultato dell’Esercizio 6.14. Dimostra le tre proprietà della definizione. ◮ L’insieme quoziente è

◮ Definizione 6.29.

{Ia | a ∈ R}

 dove le classi di equivalenza sono Ia = [(0, a)]∼R = (x, a) ∈ R2 x ∈ R .

Risultato dell’Esercizio 6.15. R1 non è simmetrica: 0 6 1 ma 1 6 0. R2 non è transitiva: (x − 1)(x − 2) e (x − 2)(x − 3) hanno uno zero comune, (x − 2)(x − 3) e (x − 3)(x − 4) hanno uno zero comune, ma (x − 1)(x − 2) e (x − 3)(x − 4) non hanno uno zero comune. ◮

c 2014 Gennaro Amendola

Versione 1.0

◮ Teorema fondamentale dell’algebra (Teorema 5.50).

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 6/S3 Funzioni e classi di equivalenza 1

Sessione di Studio 6.3

Funzioni e classi di equivalenza

Lezione 6. Funzioni e classi di equivalenza

6–21

Sessione di Studio 6.3 Letture supplementari possono essere le seguenti: • http://it.wikipedia.org/wiki/Funzione_(matematica)

• http://it.wikipedia.org/wiki/Funzione_trigonometrica

• http://it.wikipedia.org/wiki/Relazione_di_equivalenza

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 6/S3 Funzioni e classi di equivalenza 3

Sessione di Studio 6.3 Quiz

Funzioni e classi di equivalenza

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 6/S3 Funzioni e classi di equivalenza 3

• Risolvere il seguente quiz a risposta multipla in cui per ogni domanda una sola risposta è giusta. • Rivedere le risposte del quiz.

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 7 Rette e piani 1

Lezione 7 Rette e piani

Lezione 7

Rette e piani In questa lezione daremo i concetti chiave della geometria euclidea che saranno necessari nel seguito. Daremo una carrellata di concetti, con alcuni esempi, e non un’esposizione completa dell’argomento. Essi sono fondamentali per ciò che faremo in seguito, sia per i concetti (che sono la base per i concetti futuri) che per l’introduzione del linguaggio matematico (che useremo nelle altre lezioni).

7.1

Rette e piani

Concetti primitivi Nella geometria euclidea, il punto, la retta e il piano sono concetti primitivi, ossia concetti che non vengono definiti e su cui si basa la teoria che sta per essere sviluppata. Tutti questi concetti possono essere pensati in uno spazio, ossia un insieme di punti caratterizzato da tre dimensioni, formato da infiniti punti, illimitato in tutte le direzioni. L’ambiente in cui viviamo può far capire il concetto di spazio. ◮

Spazio ◮ Per la precisione, non è (ancora) chiaro se l’universo è veramente “illimitato in tutte le direzioni”.

• Un punto è una entità caratterizzata solo dalla posizione, che non ha nessuna dimensione. Solitamente un punto è contrassegnato con una lettera maiuscola dell’alfabeto latino, A, B, C, . . . ; nelle figure è rappresentato con un cerchio molto piccolo.

Punto

• Una retta è un insieme di punti caratterizzato da una dimensione, formata da infiniti punti, illimitata in entrambi i versi. Un filo teso infinitamente lungo può far capire il concetto di retta. Solitamente una retta è contrassegnata con una lettera minuscola dell’alfabeto latino, r, s, t, . . . . Nelle figure è rappresentata con una linea dritta; se due linee si intersecano, il punto d’intersezione è disegnato come un cerchio piccolo, altrimenti la linea che passa “sotto” l’altra viene tagliata per evitare di disegnare un punto di intersezione fittizio.

Retta

• Un piano è un insieme di punti caratterizzato da due dimensioni, formato da infiniti punti, illimitato in tutte le direzioni. La superficie di un tavolo infinitamente esteso può far capire il concetto di piano. Solitamente un piano è contrassegnato con una lettera

Piano

c 2014 Gennaro Amendola

Versione 1.0

Lezione 7. Rette e piani

7–2

minuscola dell’alfabeto greco, α, β, γ, . . . . Nelle figure è rappresentata con quattro rette che ne delimitano una porzione; se due piani si intersecano, la retta di intersezione è disegnata, altrimenti le linee che delimitano il piano che giacciono “sotto” l’altro piano sono disegnate tratteggiate. Se abbiamo un insieme di punti che sono contenuti in una retta, essi sono detti allineati. Se abbiamo un insieme di punti che sono contenuti in un piano, essi sono detti complanari. Oltre ai concetti primitivi, la geometria euclidea è basata anche su postulati o assiomi, ossia enunciati che sono accettati come veri senza che vengano dimostrati, come ad esempio il seguente. Dati due punti distinti qualsiasi, per essi passa un’unica retta. Ci sono altri postulati, ma evitiamo di parlarne per non appesantire la trattazione. Con i vari postulati è possibile dimostrare il seguente enunciato. Dati tre punti non allineati qualsiasi, per essi passa un unico piano.

Punti allineati e complanari

Mutua posizione di rette e piani Due rette nel piano possono essere: • coincidenti se in realtà sono la stessa retta;

Mutua posizione di due rette nel piano: rette coincidenti, incidenti, parallele

• incidenti se sono distinte e si intersecano (in un punto ◮), come s′ e r1′ (ma anche come s′ e r2′ ) nella figura; • parallele se non si intersecano, come r1′ e r2′ nella figura. Due piani nello spazio possono essere: • coincidenti se in realtà sono lo stesso piano;

◮ Due rette che si incontrano in due punti distinti sono coincidenti, perché per due punti distinti passa una sola retta.

◮), come α • incidenti se sono distinti e si intersecano (in una retta ◮ e γ (ma anche come β e δ) nella figura sopra;

• paralleli se non si intersecano, come α e β nella figura sopra. ◮ Inoltre, vale qualcosa di più forte: ogni retta è intersezione di due piani ◮ ◮. Due rette nello spazio possono essere complanari o no. Se sono complanari, possono essere ◮: • coincidenti se in realtà sono la stessa retta;

• incidenti se sono distinte e si intersecano (in un punto), come s e r1 (ma anche come s e r2 ) nella figura;

• parallele se non si intersecano, come r1 e r2 nella figura. Se le due rette sono incidenti o parallele, il piano in cui sono contenute è unico. Se le due rette non sono complanari, sono dette sghembe. In questo caso le due rette non sono né coincidenti, né incidenti, né parallele, come s e t (ma anche come r1 e t, e come r2 e t) nella figura mostrata quando abbiamo introdotto le rette. Una retta rispetto a un piano nello spazio può essere • contenuta se la retta è contenuta nel piano, come r e α nella figura; • incidente se la retta non è contenuta nel piano e lo interseca (in un punto), come s e α nella figura;

c 2014 Gennaro Amendola

Versione 1.0

Mutua posizione di due piani nello spazio: piani coincidenti, incidenti, paralleli ◮ ◮ Due piani nello spazio non si possono incontrare in un solo punto. ◮ ◮ ◮ Infiniti piani contengono la retta: scegliendone due qualsiasi distinti, la loro intersezione è la retta stessa.

Mutua posizione di due rette nello spazio: rette coincidenti, incidenti, parallele, sghembe

◮ È la stessa situazione vista sopra: due rette nel piano.

Mutua posizione di una retta rispetto a un piano nello spazio: contenuta, incidente, parallela

Lezione 7. Rette e piani

7–3

• parallela se la retta e il piano non si intersecano, come t e α nella figura. Fasci e stelle L’insieme di tutte le rette del piano che contengono un punto fissato è detto fascio di rette proprio. L’insieme di tutte le rette del piano parallele a una data retta è detto fascio di rette improprio. Ogni fascio di rette improprio può essere pensato come la classe di equivalenza della relazione di parallelismo: due rette sono in relazione se e solo se sono parallele. ◮ In un fascio di rette improprio le rette hanno in comune la direzione: più precisamente, un fascio di rette improprio è formato da tutte le rette che hanno in comune la direzione. L’insieme di tutti i piani dello spazio che contengono una retta fissata è detto fascio di piani proprio. L’insieme di tutti i piani dello spazio paralleli a un dato piano è detto fascio di piani improprio. Ogni fascio improprio può essere pensato come la classe di equivalenza della relazione di parallelismo: due piani sono in relazione se e solo se sono paralleli. ◮ L’insieme di tutte le rette dello spazio che contengono un punto fissato è detto stella di rette propria. L’insieme di tutte le rette dello spazio parallele a una data retta è detto stella di rette impropria. Ogni stella impropria può essere pensata come la classe di equivalenza della relazio◮ ne di parallelismo: due rette sono in relazione se e solo se sono parallele. ◮ In una stella di rette impropria le rette hanno in comune la direzione: più precisamente, una stella di rette impropria è formata da tutte le rette che hanno in comune la direzione.

Fascio di rette

◮ Per i fasci propri questo non è vero, perché ogni retta appartiene a infiniti fasci propri diversi.

Fascio di piani

◮ Per i fasci propri questo non è vero, perché ogni piano appartiene a infiniti fasci propri diversi.

Stella di rette

◮ ◮ Per le stelle proprie questo non è vero, perché ogni retta appartiene a infinite stelle proprie diverse.

Concetti pseudo-primitivi Dai concetti primitivi possiamo dedurre altri concetti pseudo-primitivi, come la semiretta, il segmento, l’angolo. • Una semiretta è ciascuna delle due parti in cui un punto di una retta la divide (il punto è considerato appartenere alla semiretta). Nelle figure è rappresentata con una linea dritta delimitata in un verso da un punto. Solitamente una semiretta è contrassegnata con una lettera minuscola dell’alfabeto latino, r, s, t, . . . .

Semiretta

• Un segmento è la parte di una retta delimitata due punti distinti (i due punti sono considerati appartienenti al segmento). Solitamente un segmento è identificato dalla coppia di punti che lo delimitano, AB, CD, EF, . . . ; nelle figure è rappresentato con una linea dritta delimitata da due punti.

Segmento

• Un angolo è una parte di un piano delimitata da due semirette che hanno in comune il punto estremo. Nelle figure è rappresentato con le due semirette e con una porzione di circonferenza che indica quale porzione di piano è considerata. Solitamente un angolo è contrassegnato con una lettera minuscola dell’alfabeto greco, α, β, γ, . . . .

Angolo

Angolo L’ampiezza di un angolo può essere misurata con due unità di misura: il grado e il radiante. Due semirette coincidenti delimitano due c 2014 Gennaro Amendola

Versione 1.0

Ampiezza di un angolo

Lezione 7. Rette e piani

7–4

angoli: un angolo di 0 gradi (e 0 radianti), e un’altro angolo di 360 gradi (e 2π radianti). ◮ A volte useremo il termine angolo e il suo nome anche per indicare l’ampiezza dell’angolo stesso. Due rette che si intersecano in un punto formano quattro angoli, uguali a coppie: gli angoli opposti rispetto al punto di intersezione infatti sono uguali. Chiameremo angolo formato dalle due rette l’ampiezza dei b dove s più piccoli angoli formati dalle due rette, e lo denoteremo con st, e t sono le due rette. C’è un caso estremo, quando i quattro angoli sono tutti uguali (90◦ o π2 ): in tal caso l’angolo è detto retto, e le rette sono dette perpendicolari o ortogonali. Se una retta r interseca un piano α in un punto P , l’angolo è il più piccolo tra gli angoli tra r e una qualsiasi retta contenuta in α che interseca r (in P ). Ci sono almeno due tali angoli minimi, che sono uguali e opposti rispetto a P . Nelle figure l’angolo è rappresentato con la retta, il piano, la retta contenuta nel piano che identifica l’angolo e una porzione di circonferenza. Se la retta è contenuta nel piano, l’angolo è 0. Se la retta è parallela al piano, l’angolo non è definito. Denoteremo l’angolo tra r e α con rc α. La retta è detta perpendicolare o ortogonale al piano se l’angolo tra essi è retto. In tal caso, una qualsiasi retta contenuta in α e che interseca r in P è ortogonale a r. Due rette perpendicolari allo stesso piano sono parallele tra loro. Due piani perpendicolari alla stessa retta sono paralleli tra loro. Angolo diedro Un angolo diedro è una delle quattro parti di spazio (uguali a coppie) delimitati da due piani incidenti. Se i piani sono paralleli, l’angolo diedro non è definito. Solitamente un angolo diedro è contrassegnato con una lettera minuscola dell’alfabeto greco, α, β, γ, . . . . L’ampiezza di un angolo diedro può essere misurata con due unità di misura: il grado e il radiante. Due piani coincidenti delimitano quattro angoli diedri: due angoli diedri di 0 gradi (0 radianti), e altri due angoli diedri di 360 gradi (2π radianti). ◮ A volte useremo il termine angolo diedro e il suo nome anche per indicare l’ampiezza dell’angolo diedro stesso. Denoteremo l’ampiezza dei più piccoli angoli diedri delimitati c dai due piani α e β con αβ. Due piani sono detti perpendicolari o ortogonali se i quattro angoli diedri sono tutti uguali (90◦ o π2 ). Figure geometriche Adesso siamo in grado di costruire le figure geometriche. Prima di fare ciò notiamo che le nozioni di parallelismo, angolo, e ortogonalità si estendono (quando appropriati) ai segmenti, perché ogni segmento identifica un’unica retta. Un poligono è la porzione di piano delimitata da una catena finita di segmenti che si chiudono per formare un laccio. I segmenti sono chiamati lati, e i loro estremi vertici. I poligoni sono definiti univocamente dai loro vertici ordinati, quindi sono indicati con i nomi dei vertici, scritti seguendo l’ordine dei lati. Ad esempio, nella figura è mostrato il poligono ABCDE con 5 lati. Esempi di poligoni sono i seguenti. • I poligoni che hanno 3 lati sono chiamati triangoli. Tra essi abbiac 2014 Gennaro Amendola

Versione 1.0

◮ Il primo è fittizio, il secondo è quello mostrato nella figura.

Angolo retto Rette perpendicolari/ortogonali Angolo tra una retta e un piano

Rette perpendicolari/ortogonali a un piano

Angolo diedro

◮ I primi sono fittizi, i secondi sono ciascuno metà spazio.

Piani perpendicolari/ortogonali

Poligono

Lezione 7. Rette e piani

7–5

mo: – quelli con due lati di uguale lunghezza, che sono detti isosceli; – quelli con tutti e tre i lati di uguale lunghezza, che sono detti equilateri. • I poligoni che hanno 4 lati sono chiamati quadrilateri. Tra essi abbiamo: – quelli che hanno due coppie di lati paralleli, che sono chiamati parallelogrammi; – i parallelogrammi con tutti gli angoli retti, che sono chiamati rettangoli; – i rettangoli con i lati di uguale lunghezza, che sono chiamati quadrati. Un poliedro è la porzione di spazio delimitata da un numero finito di poligoni, ogni coppia dei quali ha in comune o un lato, o un vertice, o niente. I poligoni sono chiamati facce. Esempi di poligoni sono i seguenti. • Quelli con 6 facce che sono parallelogrammi, che sono chiamati parallelepipedi.

Poliedro

• I parallelepipedi con le facce quadrate, che sono chiamati cubi.

Sistemi di riferimento cartesiani Un sistema di riferimento cartesiano (per una retta) è un punto della retta, detto origine, con un verso per la retta, insieme ad un’unità di misura che permette di associare ad ogni punto della retta un numero reale, detto coordinata. Il sistema di riferimento è indicato con (O; x) dove O è l’origine mentre x ∈ R è la coordinata. Un sistema di riferimento cartesiano (per un piano) è una coppia di rette perpendicolari, dette assi, che si intersecano in un punto, detto origine, con un verso per ciascuna di esse, insieme ad un’unità di misura che permette di associare ad ogni punto degli assi un numero reale. In questo modo possiamo associare ad ogni punto del piano una coppia di numeri reali, detti coordinate. Il sistema di riferimento è indicato con (O; x, y) dove O è l’origine mentre x ∈ R e y ∈ R sono le due coordinate. Possiamo pensare gli elementi del piano come le coppie (x, y) ∈ R2 . Il primo dei due assi è detto asse x, mentre il secondo è detto asse y. Analogamente, possiamo estendere la definizione allo spazio. Un sistema di riferimento cartesiano (per lo spazio) è una terna di rette perpendicolari, dette assi, che si intersecano tutte in un punto, detto origine, con un verso per ciascuna di esse, insieme ad un’unità di misura che permette di associare ad ogni punto degli assi un numero reale. In questo modo possiamo associare ad ogni punto dello spazio una terna di numeri reali, detti coordinate. Il sistema di riferimento è indicato con (O; x, y, z) dove O è l’origine mentre x ∈ R, y ∈ R e z ∈ R sono le tre coordinate. Possiamo pensare gli elementi dello spazio come le terne (x, y, z) ∈ R3 . Il primo dei tre assi è detto asse x, il secondo è detto asse y, il terzo è detto asse z. Il piano che contiene gli assi x e y è detto piano xy, il piano che contiene gli assi x e z è detto piano xz, il piano che contiene gli assi y e z è detto piano yz. c 2014 Gennaro Amendola

Versione 1.0

Sistema di riferimento cartesiano per una retta Origine Coordinata

Sistema di riferimento cartesiano per un piano Asse Origine Coordinate

Sistema di riferimento cartesiano per lo spazio Asse Origine Coordinate

Lezione 7. Rette e piani

7–6

Notazione 7.1. D’ora in poi, considereremo sempre dato un sistema di riferimento cartesiano (O; x) per la retta, o (O; x, y) per il piano, o (O; x, y, z) per lo spazio, senza scriverlo esplicitamente. Rette nel piano Una retta nel piano è il luogo ◮ dei punti le cui coordinate sono soluzione di un’equazione polinomiale di grado 1, ossia un’equazione come ax + by + c = 0, ◮ , nelle variabili x e y. Questa equazione è detta forma con (a, b) 6= (0, 0) ◮ implicita della retta nel piano. Se b 6= 0, possiamo trovare y in funzione di x:

Forma implicita di una retta nel piano ◮ “Luogo” è un sinonimo di “insieme” in geometria quando l’insieme è caratterizzato da un’equazione o un sistema. ◮ ◮ Visto che vogliamo che l’equazione abbia grado 1, i due parametri a e b non possono essere entrambi zero.

Forma esplicita di una retta nel piano

y = mx + q, con m = − ab e q = − cb . Questa equazione è detta forma esplicita della retta nel piano. Se invece b = 0, abbiamo l’equazione ax + c = 0 (dove a 6= 0 ◮), ossia l’equazione x = k, con k = − ac . Due equazioni ax + by + c = 0 e a′ x + b′ y + c′ = 0 rappresentano la stessa retta se e solo se i coefficienti sono proporzionali, ossia se e solo ◮ ◮ tale che a′ = ha, b′ = hb e c′ = hc ◮ se esiste h ∈ R \ {0} ◮ ◮. Invece, due equazioni in forma esplicita diverse non rappresentano mai la stessa retta, infatti i due coefficienti m e q sono univocamente determinati dalla retta: • il coefficiente m, detto coefficiente angolare, indica l’inclinazione della retta rispetto all’asse x, ed è la tangente dell’angolo α tra la retta e l’asse x mostrato nella figura ◮; • il coefficiente q, detto intercetta o ordinata all’origine, indica l’intersezione della retta con l’asse y, ossia la retta interseca l’asse y nel punto con coordinate (0, q). Due rette distinte nel piano sono parallele se e solo se i coefficienti a, b e a′ , b′ sono proporzionali, ossia se e solo se esiste h ∈ R \ {0} tale che ◮ a′ = ha e b′ = hb. ◮ Esempio 7.2. La figura di questo esempio è la seguente.

c 2014 Gennaro Amendola

Possiamo scrivere in forma esplicita tutte le rette eccetto quelle parallele all’asse y. ◮ Almeno uno tra a e b deve essere diverso da 0, perché il grado è uno.

◮ ◮ h non può essere 0 perché altrimenti la seconda equazione diventerebbe 0 = 0, che non rappresenta una retta. ◮ ◮ proporzionalità ◮ Qualcuno indica′ questa ′ ′ con la formula aa = bb = cc . Ciò è lievemente impreciso, infatti è giusto solo se tutti i coefficienti sono diversi da 0. Se invece alcuni coefficienti sono 0, in questa formula può comparire una divisione per 0 che non si può fare.

Coefficiente angolare

◮ È positivo se l’inclinazione della retta è verso l’alto, mentre è negativo se l’inclinazione della retta è verso il basso (sempre spostandosi nel verso delle x crescenti).

Intercetta/ordinata all’origine ◮ ◮ Se anche a, b, c e a′ , b′ , c′ sono proporzionali, le due linee coinciderebbero.

Versione 1.0

Lezione 7. Rette e piani

7–7

1. La retta r che ha la forma implicita 2x+3y−12 = 0 contiene i punti A = (0, 4), B = (3, 2), C = (6, 0), infatti abbiamo rispettivamente 2 · 0 + 3 · 4 − 12 = 0, 2 · 3 + 3 · 2 − 12 = 0, 2 · 6 + 3 · 0 − 12 = 0. Un’altra forma implicita di r è 4x + 6y − 24 = 0, che è il doppio dell’altra. L’unica forma esplicita di r è y = − 32 x + 4. Il suo coefficiente angolare è − 32 , mentre la sua intercetta è 4.

2. La retta s che ha la forma esplicita y = 2x − 4 contiene il punto B = (3, 2), infatti abbiamo 2 = 2·3−4, che è l’intersezione tra r e s. Ipunti di intersezione possono essere trovati risolvendo il sistema 2x + 3y − 12 = 0 , che ha solo la soluzione (x, y) = (3, 2). Il y = 2x − 4 coefficiente angolare di s è 2, mentre la sua intercetta è −4. Forme implicite di s sono 2x − y − 4 = 0, −2x + y + 4 = 0, 4x − 2y − 8 = 0,. . . . 3. La retta t che ha la forma esplicita y = 3 ha 0 come coefficiente angolare, e 3 come intercetta. Forme implicite di t sono y − 3 = 0, 2y − 6 = 0, −4y + 12 = 0,. . . . La retta t′ che ha la forma implicita x−6 = 0 non ha forme esplicite, quindi non ha né il coefficiente angolare, né l’intercetta. Altre forme implicite di t′ sono 2x− 12 = 0, 3x− 18 = 0, −x+ 6 = 0,. . . .

4. La retta r ′ che ha la forma implicita 4x + 6y − 3 = 0 è parallela a r, infatti i suoi coefficienti 4 e 6 sono proporzionali a quelli di r, ossia 2 e 3, ma gli ultimi coefficienti, rispettivamente  −3 e −12, non sono 2x + 3y − 12 = 0 proporzionali agli altri ◮. Infatti, il sistema 4x + 6y − 3 = 0 non ha soluzione. 5. L’asse x ha la forma implicita y = 0, mentre l’asse y ha la forma implicita x = 0. L’equazione di un fascio di rette può essere costruita partendo da due rette distinte qualsiasi nel fascio. Data r con forma implicita ax+by+c = ◮ 0, e r ′ con forma implicita a′ x + b′ y + c′ = 0, ◮ il fascio ha equazione ◮ c 2014 Gennaro Amendola

Versione 1.0

◮ 4 = h · 2 e 6 = h · 3, con h = 2, ma −3 6= h · (−12). Se anche gli ultimi fossero proporzionali le due equazioni rappresenterebbero la stessa retta.

◮ Visto che r e r ′ sono diverse, le equazioni non sono proporzionali. ◮ ◮ λ e µ non possono essere entrambi 0, altrimenti l’equazione di riduce a 0 = 0, che non rappresenta una retta.

Lezione 7. Rette e piani  λ(ax+by +c)+µ a′ x + b′ y + c′ = 0

7–8

con

(λ, µ) ∈ R2 \{(0, 0)}.

In questo caso diremo che il fascio è generato dalle due rette r e s. Se (λ, µ) = (1, 0) la retta è r, mentre se (λ, µ) = (0, 1) la retta è r ′ . Se λ′ e µ′ sono proporzionali a λ e µ ◮ la retta rappresentata è la stessa.

◮ λ′ = hλ e µ = hµ, con h ∈ R \ {0}.

Esempio 7.3. 1. Il fascio di rette generato dalle due rette r e s, con equazioni rispettivamente x + y − 3 = 0 e x − 2y + 3 = 0, è λ(x+y −3)+µ(x−2y +3) = 0. Tutte le rette nel fascio contengono il punto (1, 2), infatti esso appartiene sia a r che a s, quindi il fascio è proprio. 2. Il fascio di rette generato dalle due rette r e s, con equazioni rispettivamente x + y − 3 = 0 e x + y = 0, è λ(x + y − 3) + µ(x + y) = 0. Le rette nel fascio sono parallele, perché r e s sono parallele, quindi il fascio è improprio. Piani nello spazio Un piano nello spazio è il luogo dei punti le cui coordinate sono soluzione di un’equazione polinomiale di grado 1, ossia un’equazione come

Forma implicita di un piano nello spazio

ax + by + cz + d = 0, con (a, b, c) 6= (0, 0, 0) ◮ , nelle variabili x, y e z. Questa equazione è detta forma implicita del piano nello spazio. Due equazioni ax+by +cz +d = 0 e a′ x + b′ y + c′ z + d′ = 0 rappresentano lo stesso piano se e solo se sono proporzionali, ossia se e solo se esiste h ∈ R \ {0} ◮ tale che a′ = ha, ◮. b′ = hb, c′ = hc e d′ = hd ◮ Due piani distinti nello spazio sono paralleli se e solo se i coefficienti a, b, c e a′ , b′ , c′ sono proporzionali, ossia se e solo se esiste h ∈ R \ {0} ◮ tale che a′ = ha, b′ = hb e c′ = hc. ◮ ◮ Esempio 7.4. 1. Il piano α che ha la forma implicita 2x+3y−z−1 = 0 contiene i punti A = (0, 0, −1), B = (1, 0, 1), C = (1, 1, 4), infatti abbiamo rispettivamente 2 · 0 + 3 · 0 − (−1) − 1 = 0, 2 · 1 + 3 · 0 − 1 − 1 = 0, 2 · 1 + 3 · 1 − 4 − 1 = 0. Un’altra forma implicita di α è 6x + 9y − 3z − 3 = 0, che è il triplo dell’altra. 2. Il piano β che ha la forma implicita 6x + 9y − 3z − 2 = 0 è parallelo a α, infatti i suoi coefficienti 6, 9 e −3 sono proporzionali a quelli di α, ossia 2, 3 e −1, ma gli ultimi coefficienti, rispettivamente ◮ −2  e −1, non sono proporzionali agli altri . Infatti, il sistema 2x + 3y − z − 1 = 0 non ha soluzione. 6x + 9y − 3z − 2 = 0

3. Il piano γ che ha la forma implicita x − y + 2z − 1 = 0 non è parallelo a α, infatti i suoi coefficienti 1, −1 e 2 non sono proporzionali a quelli di α, ossia 2, 3 e −1 ◮. Infatti, il sistema  2x + 3y − z − 1 = 0 = 0 ha solutione. x − y + 2z − 1 = 0 4. Il piano xy ha la forma implicita z = 0, il piano xz ha la forma implicita y = 0, e il piano yz ha la forma implicita x = 0.

L’equazione di un fascio di piani può essere costruita partendo da due piani distinti qualsiasi nel fascio. Dato α con forma implicita ax + c 2014 Gennaro Amendola

Versione 1.0

◮ Visto che vogliamo che l’equazione abbia grado 1, i tre parametri a, b e c non possono essere tutti zero. ◮ Come per le rette, h non può essere 0 perché altrimenti la seconda equazione diventerebbe 0 = 0, che non rappresenta un piano. ◮ ◮ Come per le rette, qualcuno indica questa proporzionalità con la formula

a′ b′ c′ d′ = = = . a b c d Ciò è lievemente impreciso, infatti è giusto solo se tutti i coefficienti sono diversi da 0. Se invece alcuni coefficienti sono 0, in questa formula può comparire una divisione per 0 che non si può fare. ◮ ′ ′ ′ ′ ◮ ◮ Se anche a, b, c, d and a , b , c , d sono proporzionali, i due piani coincidono.

◮ 6 = h · 2, 9 = h · 3 e −3 = h · (−1), con h = 3, ma −2 6= h · (−1). Se anche gli ultimi fossero proporzionali le due equazioni rappresenterebbero lo stesso piano.

◮ Non c’è nessun h ∈ R\{0} tale che 1 = h·2, −1 = h · 3 e 2 = h · (−1).

Lezione 7. Rette e piani

7–9

by + cz + d = 0, e α′ con forma implicita a′ x + b′ y + c′ z + d′ = 0, ◮ il ◮ fascio ha equazione ◮  λ(ax+by+cz+d)+µ a′ x + b′ y + c′ z + d′ = 0 con (λ, µ) ∈ R2 \{(0, 0)}.

In questo caso diremo che il fascio è generato dai due piani α e α′ . Se (λ, µ) = (1, 0) il piano è α, mentre se (λ, µ) = (0, 1) il piano è α′ . Se λ′ e µ′ sono proporzionali a λ e µ ◮ il piano rappresentato è lo stesso.

◮ Visto che α e α′ sono diversi, le equazioni non sono proporzionali. ◮ ◮ λ e µ non possono essere entrambi 0, al-

trimenti l’equazione si riduce a 0 = 0, che non rappresenta un piano.

◮ λ′ = hλ e µ = hµ, con h ∈ R \ {0}.

Esempio 7.5. 1. Il fascio di piani generato dai due piani α e β, con equazioni rispettivamente x + y − z − 3 = 0 e x − 2y + z + 2 = 0, è λ(x + y − z − 3) + µ(x − 2y + z + 2) = 0. Tutti i piani nel fascio contengono il punto (1, 1, −1), infatti esso appartiene sia a α che a β, quindi il fascio è proprio. 2. Il fascio di piani generato dai due piani α e β, con equazioni rispettivamente x + y − z − 3 = 0 e x + y − z + 4 = 0, è λ(x + y − z − 3) + µ(x + y − z + 4) = 0. I piani nel fascio sono paralleli, perché α e β sono paralleli, quindi il fascio è improprio. Rette nello spazio Dal fatto che ogni retta è intersezione di due piani distinti deduciamo che essa è il luogo dei punti le cui coordinate sono soluzione di un sistema di due adeguate equazioni polinomiali di grado 1, ossia un sistema come  a1 x + b1 y + c1 z + d1 = 0 a2 x + b2 y + c2 z + d2 = 0

nelle variabili x, y e z, tali che i coefficienti a1 , b1 , c1 e a2 , b2 , c2 non sono proporzionali, ossia che non esiste nessun h ∈ R \ {0} tale che a2 = ha1 , b2 = hb1 e c2 = hc1 . ◮ Questo sistema è detto forma implicita della retta nello spazio.  2x + y − z + 3 = 0 rappresenta una Esempio 7.6. 1. Il sistema 4x − y + 2z − 1 = 0 retta, perché i coefficienti 2, 1, −1 e 4, −1, 2 non sono proporzionali ◮.  2x + y − z + 3 = 0 non rappresenta una retta, per2. Il sistema 4x + 2y − 2z − 1 = 0 ché i coefficienti 2, 1, −1 e 4, 2, −2 sono proporzionali ◮.  y=0 3. L’asse x ha la forma implicita , l’asse y ha la forma z=0   x=0 x=0 . , e l’asse z ha la forma implicita implicita y=0 z=0

Distanza La distanza tra due punti, A e B, è la lunghezza del segmento che li congiunge, ed è indicata con AB. Essa è zero se e solo se i due punti coincidono. Può essere calcolata attraverso le coordinate. ◮ Se i due punti sono nel piano, e hanno coordinate rispettivamente (x, y) e (x′ , y ′ ), la distanza è q AB = (x′ − x)2 + (y ′ − y)2 . c 2014 Gennaro Amendola

Versione 1.0

Forma implicita di una retta nello spazio

◮ Altrimenti i due piani o coinciderebbero o sarebbero paralleli.

◮ Non c’è nessun h ∈ R\{0} tale che 4 = h·2, −1 = h · 1 e 2 = h · (−1).

◮ 4 = h · 2, 2 = h · 1 e −2 = h · (−1), con h = 2.

Distanza ◮ Questa è una applicazione del teorema di Pitagora.

Lezione 7. Rette e piani

7–10

Analogamente, se i due punti sono nello spazio, e hanno coordinate rispettivamente (x, y, z) e (x′ , y ′ , z ′ ), la distanza è q AB = (x′ − x)2 + (y ′ − y)2 + (z ′ − z)2 .

Esempio 7.7.q 1. La distanza tra i due punti P = (1, −1) e Q = (4, 3) è AB = (4 − 1)2 + (3 − (−1))2 = 5.

2. La distanza tra i due punti P = (1, −1, 3) e Q = (4, −1, 0) è q √ AB = (4 − 1)2 + (−1 − (−1))2 + (0 − 3)2 = 3 2.

Area e volume L’area dei poligoni può essere calcolata per mezzo della distanza. • L’area di un triangolo è bh 2 , dove b è la lunghezza di un lato e h è la lunghezza del segmento dal vertice opposto alla retta che contiene il lato, che è ortogonale alla retta e ha il secondo estremo sulla retta (si veda la figura).

Area

• L’area di un parallelogramma è bh, dove b è la lunghezza di un lato e h è la lunghezza del segmento da un vertice opposto alla retta che contiene il lato, che è ortogonale alla retta e ha il secondo estremo sulla retta (si veda la figura). Vedremo un’altra formula nella Lezione 18. • L’area di un rettangolo è bh, dove b è la lunghezza di un lato e h è la lunghezza di un lato ortogonale a esso (si veda la figura). • L’area di un quadrato è l2 , dove l è la lunghezza di un lato (si veda la figura). Anche il volume dei poliedri può essere calcolato per mezzo della distanza. • Il volume di un parallelepipedo può essere calcolato, ma evitiamo di farlo: vedremo una formula nella Lezione 18. • Il volume di un cubo è l3 , dove l è la lunghezza di un lato (si veda la figura).

c 2014 Gennaro Amendola

Versione 1.0

Volume

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 7/S1 Rette e piani 1

Sessione di Studio 7.1 Rette e piani

Lezione 7. Rette e piani

7–11

Sessione di Studio 7.1 Esercizio 7.1. Disegna quattro linee nello spazio, r1 , r2 , r3 , s, tali che • r1 , r2 e r3 si intersecano tra loro, • s interseca solo r1 .

Soluzione.

Esercizio 7.2. Disegna tre piani nello spazio, α1 , α2 , α3 , ciascuno dei quali interseca gli altri in una retta, ma tali che tutti e tre non si intersecano. Soluzione.

Esercizio 7.3. Trova la retta nel piano che contiene i due punti (1, 5) e (−1, −1).

Soluzione. Sia ax + by + c = 0 l’equazione della retta. Visto che la retta deve contenere (1, 5), abbiamo a · 1 + b · 5 + c = 0; visto che la retta deve contenere (−1, −1), abbiamo a · (−1) + b · (−1) + c = 0. Il sistema  a + 5b + c = 0 ha come soluzioni le terne (a, b, c) = (3k, −k, 2k) −a − b + c = 0 con k ∈ R. La soluzione con k = 0 deve essere scartata perché a e b non possono essere entrambi zero. Le altre soluzioni portano alla stessa retta (perché i parametri sono proporzionali), la cui forma implicita è 3x − y + 2 = 0, ottenuta con k = 1. ◮

◮ Per esempio, con k = 2 avremmo ottenuto 6x − 2y + 4 = 0, che rappresenta la stessa retta.

Esercizio 7.4. Trova il piano nello spazio che contiene i tre punti (4, 0, 1), (1, 1, 0) e (−2, 3, −1).

Soluzione. Sia ax + by + cz + d = 0 l’equazione del piano. Visto che il piano deve contenere (4, 0, 1), abbiamo a · 4 + b · 0 + c · 1 + d = 0; visto che il piano deve contenere (1, 1, 0), abbiamo a · 1 + b · 1 + c · 0 + d = 0; visto che il piano deve contenere (−2,  3, −1), abbiamo a · (−2) + b ·  4a + c + d = 0 3 + c · (−1) + d = 0. Il sistema a+b+d=0 ha come  −2a + 3b − c + d = 0 soluzioni le 4-uple (a, b, c, d) = (k, 0, −3k, −k) con k ∈ R. La soluzione con k = 0 deve essere scartata perché a, b e c non possono essere tutti zero. Le altre soluzioni portano allo stesso piano (perché i parametri sono proporzionali), la cui forma implicita è x − 3z − 1 = 0, ottenuta con k = 1. ◮ Esercizio 7.5. I tre punti (−3, 0), (1, −1) e (4, −2) nel piano sono allineati? c 2014 Gennaro Amendola

Versione 1.0

◮ Per esempio, con k = −1 avremmo ottenuto −x + 3z + 1 = 0, che rappresenta lo stesso piano.

Lezione 7. Rette e piani

7–12

Soluzione. Cominciamo cercando la retta che contiene i due punti (−3, 0) e (1, −1). Se la sua equazione èax + by + c = 0, imponendo che la retta li −3a + c = 0 contiene, otteniamo il sistema , le cui soluzioni sono le a−b+c= 0 terne (a, b, c) = (k, 4k, 3k) con k ∈ R, che portano alla x + 4y + 3 = 0 ◮. Ora, il punto (4, −2) non appartiene alla retta trovata (perché 4 + 4(−2) + 3 = −1 6= 0), quindi i tre punti non sono allineati.

◮ Ottenuta con k = 1.

Esercizio 7.6. Trova la mutua posizione delle due rette la cui forma implicita è rispettivamente x + 2y + 1 = 0 e 3x + 4y − 1 = 0, nel piano.

Soluzione. Le due rette sono diverse, perché  i loro coefficienti non sox + 2y + 1 = 0 no proporzionali. ◮ Visto che il sistema ha come 3x + 4y − 1 = 0 soluzioni solo (3, −2), le rette sono incidenti.

◮ Non c’è nessun h ∈ R\{0} tale che 3 = h·1, 4 = h · 2 e 1 = h · (−1).

Esercizio 7.7. Trova la mutua posizione dei due piani la cui forma implicita è rispettivamente 3x + 5y − z + 1 = 0 e 9x + 15y − 3z − 3 = 0, nello spazio. Soluzione. I due piani sono diversi, perché i loro coefficienti non sono proporzionali. ◮ Invece, visto che i coefficienti 9, 15, −3 sono proporzio◮ ◮, i piani sono paralleli. ◮ nali a 3, 5, −1 ◮ ◮ Esercizio 7.8. Trova la mutua posizione della retta la cui forma im2x + y + 1 = 0 plicita è rispetto al piano la cui forma implicita è 2y − 3z + 5 = 0 6x + y + 3z = 0, nello spazio.   2x + y + 1 = 0 Soluzione. Visto che il sistema 2y − 3z + 5 = 0 non ha soluzione,  6x + y + 3z = 0 la retta e il piano non si intersecano, quindi la retta è parallela al piano.

◮ Non c’è nessun h ∈ R\{0} tale che 9 = h·3, 15 = h · 5, −3 = h · (−1) e −3 = h · 1. ◮ ◮ 9 = h · 3, 15 = h · 5 e −3 = h · (−1), con h = 3. ◮ ◮ Ciò può anche essere dimostra◮ to controllando che il sistema  3x + 5y − z + 1 = 0 non ha 9x + 15y − 3z − 3 = 0 soluzione.

Esercizio 7.9. Scrivi l’equazione del fascio di rette nel piano che contengono il punto (3, −2). Trova la retta nel fascio che contiene il punto (−4, 1). Soluzione. Due rette che contengono il punto (3, −2) hanno forma implicita x − 3 = 0 e y + 2 = 0, quindi il fascio di rette ha equazione λ(x − 3) + µ(y + 2) = 0, con (λ, µ) ∈ R2 \ {(0, 0)}. Sostituendo le coordinate del punto nell’equazione del fascio otteniamo λ(−4−3)+µ(1+2) = 0, ossia 7λ = 3µ, le cui soluzioni sono le coppie  ◮, otteniamo la λ, 37 λ , con λ 6= 0. ◮ Scegliendo arbitrariamente λ = 3 ◮ soluzione (3, 7), che porta alla retta 3(x − 3) + 7(y + 2) = 0. Esercizio 7.10. Calcola la distanza tra i due punti (3, −2) e (5, 2) del piano. p √ Soluzione. La distanza è (5 − 3)2 + (2 − (−2))2 = 2 5. c 2014 Gennaro Amendola

Versione 1.0

Questo è un altro modo per trovare l’equazione della retta per due punti nel piano.

◮ Esse sono proporzionali, quindi rappresentano la stessa retta. ◮ ◮ È fondamentale diverso da zero.

scegliere

un

numero

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE COMPLEMENTI DI MATEMATICA 7/S2 Rette e piani 1

Sessione di Studio 7.2 Rette e piani

2010

Lezione 7. Rette e piani

7–13

Sessione di Studio 7.2 Esercizio 7.11. Disegna quattro linee nello spazio, r1 , r2 , r3 , s, tali che • r1 , r2 e r3 si intersecano tra loro, • s interseca r1 e r2 ma non r3 .

Esercizio 7.12. Disegna tre piani nello spazio, α1 , α2 , α3 , ciascuno dei quali interseca gli altri in una retta, e tali che tutti e tre si intersecano in esattamente un punto. Esercizio 7.13. Trova la retta nel piano che contiene i due punti (−2, 4) e (−3, 3). Esercizio 7.14. Trova il piano nello spazio che contiene i tre punti (2, 1, 1), (5, 1, 2) e (0, −1, −1). Esercizio 7.15. I quattro punti (1, 0, 1), (−2, −1, 0), (3, 0, −1) e (5, 1, 1) nello spazio sono complanari?

Esercizio 7.16. Trova la mutua posizione delle due rette la cui forma implicita è rispettivamente 4x + 2y − 1 = 0 e 2x + y − 1 = 0, nel piano.

Esercizio 7.17. Trova la mutua posizione dei due piani la cui forma implicita è rispettivamente x + y + 1 = 0 e y − 3z − 1 = 0, nello spazio. Esercizio  7.18. Trova la mutua posizione della retta la cui forma imx + y − 3z = 0 rispetto al piano la cui forma implicita plicita è x + y − 2z + 2 = 0 è x + 2y + z − 1 = 0, nello spazio.

Esercizio 7.19. Scrivi l’equazione del fascio di piani nello spazio generato dai due piani con forma implicita 2x − y + z = 0 e x + z − 3 = 0. Scrivi una forma implicita della retta contenuta in tutti i piani del fascio. Trova il piano nel fascio che contiene il punto (−3, 0, 1). Esercizio 7.20. Calcola la distanza tra i due punti (−2, −1, 0) e (−4, 1, 1) dello spazio. Esercizio 7.21. Disegna il rettangolo ABCD nel piano, con A = (1, −2), B = (9, 4), C = (6, 8) e D = (−2, 2), e calcola la sua area.

c 2014 Gennaro Amendola

Versione 1.0

Lezione 7. Rette e piani

7–14

Risultato dell’Esercizio 7.11.

Risultato dell’Esercizio 7.12. Risultato dell’Esercizio 7.13. x − y + 6 = 0.

Risultato dell’Esercizio 7.14. x + 2y − 3z − 1 = 0.

Risultato dell’Esercizio 7.15. Sì. ◮

◮ Il piano che contiene i tre punti (1, 0, 1), (−2, −1, 0), (3, 0, −1) è x − 4y + z − 2 = 0.

Risultato dell’Esercizio 7.16. Parallele. Risultato dell’Esercizio 7.17. Incidenti. Risultato dell’Esercizio 7.18. Incidente. Risultato dell’Esercizio  7.19. λ(2x − y + z) + µ(x + z − 3) = 0, con 2x − y + z = 0 (λ, µ) ∈ R2 \ {(0, 0)}. . x − y + 3 = 0. x+z−3=0

Risultato dell’Esercizio 7.20. 3. Risultato dell’Esercizio 7.21.

Sappiamo che ABCD è un rettangolo: non dobbiamo controllarlo.

L’area è 50.

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 7/S3 Rette e piani 1

Sessione di Studio 7.3 • Rette e piani

Lezione 7. Rette e piani

7–15

Sessione di Studio 7.3 Letture supplementari possono essere le seguenti: • http://it.wikipedia.org/wiki/Retta

• http://it.wikipedia.org/wiki/Piano_(geometria)

• http://it.wikipedia.org/wiki/Geometria_euclidea • http://it.wikipedia.org/wiki/Angolo

• http://it.wikipedia.org/wiki/Poligono

• http://it.wikipedia.org/wiki/Triangolo

• http://it.wikipedia.org/wiki/Quadrilatero • http://it.wikipedia.org/wiki/Poliedro

• http://it.wikipedia.org/wiki/Parallelepipedo

• http://it.wikipedia.org/wiki/Sistema_di_riferimento_cartesiano

• http://it.wikipedia.org/wiki/Coefficiente_angolare • http://it.wikipedia.org/wiki/Intercetta

c 2014 Gennaro Amendola

Versione 1.0

Lezione 7. Rette e piani

7–16

Sessione di Studio 7.Quiz Seguirà un quiz, le cui domande sono le seguenti, per controllare il livello di approfondimento degli argomenti studiati: assicurati di avere a disposizione queste domande quando farai il quiz. L’esito del quiz non sarà tenuto in considerazione per l’esame. Dopo aver svolto il quiz ricontrolla le domande, specialmente quelle a cui non hai risposto in maniera corretta. Per ognuna delle seguenti domande, la risposta esatta è una sola. Domanda 7.1. Date le rette nel piano indicate in figura, quali delle seguenti coppie sono incidenti?

(a) r1 e r2 . (b) r2 e r3 . (c) r3 e r4 . (d) r4 e r5 . Domanda 7.2. Date le rette nello spazio indicate in figura, quali delle seguenti coppie sono parallele?

(a) r1 e r2 . (b) r2 e r3 . (c) r3 e r4 . (d) r4 e r1 . Domanda 7.3. Date le rette nello spazio indicate in figura, quali delle seguenti coppie sono sghembe?

(a) r1 e r2 . (b) r2 e r3 . (c) r3 e r4 . (d) r4 e r1 .

c 2014 Gennaro Amendola

Versione 1.0

Lezione 7. Rette e piani

7–17

Domanda 7.4. Date le rette nel piano indicate in figura, quali delle seguenti coppie sono ortogonali?

(a) r1 e r2 . (b) r2 e r3 . (c) r3 e r4 . (d) r4 e r1 . Domanda 7.5. Dati i piani nello spazio indicati in figura, quali delle seguenti coppie sono paralleli?

(a) α e β. (b) β e γ. (c) γ e δ. (d) δ e α. Domanda 7.6. Dato il punto nel piano indicato in figura, quali sono le sue coordinate?

(a) (2, 1). (b) (−2, 1). (c) (−2, −1). (d) Nessuna delle precedenti. Domanda 7.7. Quale delle seguenti equazioni rappresenta il piano di equazione 2x − 3y + z − 2 = 0? (a) 6x + 9y + 3z − 6 = 0. (b) −2x + 3y − z − 2 = 0. (c) 4x − 6y + 2z + 4 = 0. (d) 4x − 6y + 2z − 4 = 0. Domanda 7.8. Quale delle seguenti equazioni non rappresenta un piano parallelo al piano di equazione x + y − 3z + 1 = 0? (a) x + y − 3z + 2 = 0. (b) 2x + 2y − 6z + 1 = 0. (c) x + y + 3z − 1 = 0. (d) x + y − 3z − 1 = 0. c 2014 Gennaro Amendola

Versione 1.0

Lezione 7. Rette e piani

7–18

Domanda 7.9. Dato il fascio di piani di equazione λ(x − y + 2z − 3) + µ(2y + z + 3) = 0, a quale delle seguenti coppie (λ, µ) corrisponde il piano che contiene il punto (3, −1, 2)? (a) (5, 3). (b) (5, −3). (c) (3, 5). (d) (3, −5). Domanda 7.10. Quale delle seguenti equazioni o dei seguenti sistemi rappresenta una retta nello spazio? (a) 3x + y − z + 1 = 0  3x + y − z + 1 = 0 (b) 6x + 2y − 2z + 1 = 0  3x + y − z + 1 = 0 (c) 2x + y − z + 1 = 0  3x + y − z + 1 = 0 (d) 6x + 2y − 2z + 2 = 0

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 8 Vettori geometrici 1

Lezione 8 Vettori geometrici

Lezione 8

Vettori geometrici In questa lezione ci occuperemo dei vettori geometrici. Essi sono il punto di partenza per molte idee e generalizzazioni che vedremo nel corso. Vedremo anche i vettori fisici.

8.1

Vettori geometrici

In questa lezione lavoreremo nel piano o nello spazio. Non è importante distinguere i due casi, perché tutto ciò che diremo vale sia nel piano che nello spazio. Vettori fisici Un vettore fisico è un oggetto caratterizzato da tre attributi: • la direzione, ossia una classe di equivalenza della relazione di parallelismo sulle rette (ossia una stella o un fascio di rette improprio ◮), • il verso, ossia una delle due scelte su come si può percorrere una qualsiasi delle rette della stella o del fascio, • il modulo, ossia un numero reale positivo. Oltre a questi vettori fisici bisogna considerane un altro: il vettore fisico nullo, indicato con 0, ossia un vettore fisico caratterizzato solo dall’avere modulo uguale a 0; esso non ha né direzione né verso. Un vettore fisico è detto applicato se oltre alle tre caratteristiche dei vettori fisici consideriamo un quarto attributo: • il punto di applicazione, ossia un punto. Per distinguere i vettori fisici non applicati (ossia quelli caratterizzati solo dai tre attributi descritti sopra) da quelli applicati, i primi sono anche detti liberi. Vettori geometrici I vettori fisici applicati possono essere rappresentati graficamente con le frecce, ossia segmenti orientati. Una freccia rappresenta il vettore fisico applicato che ha • la direzione della freccia, • il verso dalla freccia,

• il modulo uguale alla lunghezza della freccia, c 2014 Gennaro Amendola

Versione 1.0

Vettore fisico

Alcuni considerano l’informazione sull’orientazione contenuta nella direzione, quindi una stella o un fascio di rette improprio può rappresentare due direzioni, ma noi preferiamo fare una distinzione. ◮ Nello spazio consideriamo una stella, mentre nel piano consideriamo un fascio.

Vettore fisico libero e applicato

Freccia

Lezione 8. Vettori geometrici

8–2

• il punto di applicazione nella coda della freccia. Tra le frecce consideriamo anche la freccia degenere in cui la coda e la punta coincidono (che ha lunghezza 0), che rappresenta il vettore 0. Un vettore geometrico applicato è un freccia. In questo modo più frecce rappresentano lo stesso vettore fisico libero, infatti frecce con direzione, verso e modulo uguali rappresentano lo stesso vettore fisico. È naturale quindi considerare la relazione di equivalenza per cui due frecce sono equivalenti se hanno direzione, verso e modulo uguali (tutte le frecce degeneri in cui la coda e la punta coincidono sono equivalenti tra loro). Un vettore geometrico è una classe di equivalenza della relazione di equivalenza appena definita sull’insieme delle frecce. Per distinguere i vettori geometrici non applicati (ossia le classi di equivalenza) da quelli applicati, i primi sono anche detti liberi. I vettori geometrici liberi sono rappresentanti dei vettori geometrici applicati ◮. L’insieme di tutti i vettori geometrici del piano è indicato con V 2E , mentre l’insieme di tutti i vettori geometrici dello spazio è indicato con V 3E . Per non appesantire la trattazione, non distingueremo i vettori geometrici liberi da quelli applicati: ad esempio, possiamo indicare con v sia un vettore geometrico applicato che il vettore geometrico libero che esso rappresenta ◮. Visto che ogni vettore geometrico (applicato) rappresenta un unico vettore fisico (applicato), e ogni vettore fisico (applicato) è rappresentato da un unico vettore geometrico (applicato), non distingueremo tra vettori geometrici e fisici, ossia parleremo di direzione, verso e modulo di un vettore geometrico, e non faremo cenno esplicito ai vettori fisici. Per distinguere i vettori (che sono gli elementi chiave del corso) dal resto, li abbiamo indicati utilizzando lettere in grassetto (ad esempio, v, w, u). Alcuni distinguono i vettori tramite una freccia sopra alla lettera (ad esempio, ~v , w, ~ ~u), altri sottolineando la lettera (ad esempio, v, w, u). La scelta di distinguere i vettori dal resto è fatta per scopi didattici e di chiarezza, ma nessuno vieta di scrivere i vettori con lo stesso carattere del resto e senza orpelli ◮. Somma sui vettori geometrici La somma di due vettori geometrici v e w è il vettore geometrico, indicato con

Vettore geometrico applicato

Vettore geometrico

◮ Definizione 6.32.

V 2E e V 3E

◮ Ossia, la sua classe di equivalenza.

La funzione che associa a un vettore geometrico (applicato) il vettore fisico (applicato) che esso rappresenta è bigettiva (Definizione 6.19).

◮ Quando scriviamo a mano è più comodo usare lo stesso carattere, ma se qualcuno preferisce (magari per chiarezza, anche per chi scrive) possono essere usati stili diversi (le frecce o la sottolineatura).

Somma sui vettori geometrici

v + w, e ottenuto tramite le seguenti operazioni: • scegliamo rappresentanti per v e w con la stessa coda O ◮,

• costruiamo il parallelogramma che ha come coppia di lati adiacenti i due rappresentanti scelti,

• definiamo il vettore geometrico somma v + w come il vettore geometrico che ha la coda in O e la punta nel vertice opposto del parallelogramma. Non è difficile verificare tramite la geometria euclidea che il vettore geometrico v + w non dipende dalla scelta dei rappresentanti dei due vettori geometrici v e w. c 2014 Gennaro Amendola

Versione 1.0

◮ Ciò può essere fatto sempre: è sufficiente scegliere (arbitrariamente) lo stesso punto di applicazione O.

Lezione 8. Vettori geometrici

8–3

Per costruzione abbiamo che scambiando i vettori geometrici v e w la somma non cambia, ossia v+w =w+v

∀v, w ∈ V 2E o V 3E .

Abbiamo anche che sommando il vettore geometrico nullo a un qualsiasi vettore geometrico v otteniamo lo stesso v, ossia v+0=0+v =v

∀v ∈ V 2E o V 3E ,

infatti in questo caso il parallelogramma degenera nel segmento v. È anche possibile dimostrare che se sommiamo tre vettori geometrici, v, w, u, il risultato non dipende dall’ordine in cui facciamo la somma, ossia v + (w + u) = (v + w) + u

∀v, w, u ∈ V 2E o V 3E ;

la dimostrazione può essere fatta tramite la geometria euclidea, ma tra poco vedremo una dimostrazione algebrica molto semplice. La sottrazione da un vettore geometrico v di un vettore geometrico w consiste nel trovare il vettore geometrico u tale che v = w + u. Il vettore geometrico u è detto differenza tra v e w, ed è indicato con

Sottrazione sui vettori geometrici La sottrazione è l’operazione inversa della somma, come per i numeri interi, razionali, reali e complessi.

v − w.

Fissati v e w, il vettore v − w esiste ed è unico: la dimostrazione può essere fatta tramite la geometria euclidea, ma tra poco vedremo una dimostrazione algebrica molto semplice. Il vettore v − w può essere costruito anche utilizzando il parallelogramma costruito per definire la somma dei vettori v e w, ossia v − w è il vettore che ha la coda nella punta di w e la punta nella punta di v. Moltiplicazione per scalare sui vettori geometrici Il prodotto per scalare di un vettore geometrico v per un numero reale λ è il vettore geometrico, indicato con

Differenza tra vettori geometrici

Moltiplicazione per scalare sui vettori geometrici

λ · v,

che, per v 6= 0, • se λ > 0, ha la stessa direzione e lo stesso verso di v, ma modulo ottenuto moltiplicando il modulo di v per λ; • se λ = 0, è il vettore geometrico nullo 0 ◮;

• se λ < 0, ha la stessa direzione di v, ma verso opposto e modulo ottenuto moltiplicando il modulo di v per |λ|; per v = 0, vale 0 qualsiasi sia λ. Se non è necessario, omettiamo il simbolo “·”, quindi λv significa λ · v. Il vettore geometrico λ · v è detto multiplo del vettore geometrico v. Il vettore geometrico (−1) · v è anche indicato con −v.

Esempio 8.1. Consideriamo i tre vettori geometrici v, w e u, mostrati nella figura sotto.

Mostriamo nella figura sotto alcune operazioni su essi: v + w, w + u, v + u, v − w, w − v. Mostriamo nella figura sotto anche il prodotto per scalare di v per il numero reale 5, e il prodotto per scalare di w per il numero reale −2. c 2014 Gennaro Amendola

Versione 1.0

Il vettore è allungato (o accorciato) di un fattore λ. ◮ Il vettore geometrico 0 non ha né direzione né verso.

Il vettore è ribaltato rispetto alla sua coda e allungato (o accorciato) di un fattore |λ|. Qui non dobbiamo dimostrare l’indipendenza dal rappresentante scelto, perché non abbiamo utilizzato i rappresentanti (come abbiamo fatto sopra per la somma), bensì solo direzione, verso e modulo di v. Multiplo di un vettore geometrico

Lezione 8. Vettori geometrici

8–4

Coordinate Se fissiamo un sistema di riferimento cartesiano con origine O, tra i rappresentanti di un vettore geometrico possiamo scegliere come rappresentante “speciale” l’unico vettore geometrico applicato ◮ con punto di applicazione in O. In questo modo, ad ogni punto P possiamo far corrispondere il vettore geometrico che, applicato in O, ha la punta in P , e viceversa. Le coordinate del punto quindi identificano univocamente il vettore geometrico, e sono dette coordinate del vettore geometrico (rispetto al sistema di riferimento cartesiano). Coordinate nel piano Supponiamo ora di avere a che fare con il piano. Fissiamo un sistema di riferimento cartesiano (O; x, y). Allora i vettori geometrici sono identificati dalle coppie di numeri reali ◮. Nella figura vediamo un esempio con due sistemi di riferimento cartesiani, (O; x, y) e (O ′ ; x′ , y ′ ). Esempio 8.2. Nella figura è mostrato un sistema di riferimento cartesiano nel piano, e il vettore geometrico le cui coordinate sono (5, 2). Le coordinate della somma di due vettori geometrici sono la somma delle rispettive coordinate dei vettori geometrici, ossia se v ha coordinate (v1 , v2 ) e w ha coordinate (w1 , w2 ), allora v + w ha coordinate (v1 + w1 , v2 + w2 ). Le coordinate del prodotto per scalare di un vettore geometrico per un numero reale λ sono il prodotto delle rispettive coordinate del vettore geometrico con λ, ossia se v ha coordinate (v1 , v2 ), allora λ · v ha coordinate (λv1 , λv2 ).

Esempio 8.3. Dati v = (1, 2), w = (3, 1) e λ = 3, abbiamo v + w = (1 + 3, 2 + 1) = (4, 3), v − w = (1 − 3, 2 − 1) = (−2, 1),

w − v = (3 − 1, 1 − 2) = (2, −1), λv = (3 · 1, 3 · 2) = (3, 6),

λw = (3 · 3, 3 · 1) = (9, 3).

Utilizzando le coordinate, è facile dimostrare ciò che abbiamo enunciato sopra per V 2E . • Per ogni v, w, u ∈ V 2E , si ha v + (w + u) = (v + w) + u. Fissiamo un sistema di riferimento cartesiano (O; x, y). I vettori geometrici v, w e u hanno coordinate rispettivamente (v1 , v2 ), c 2014 Gennaro Amendola

Versione 1.0

La scelta dipende dal sistema di riferimento cartesiano fissato. ◮ Ossia, freccia.

L’identificazione dipende dal sistema di riferimento cartesiano fissato. Coordinate di un vettore geometrico

◮ Le coordinate di un punto nel piano sono due.

Lezione 8. Vettori geometrici

8–5

(w1 , w2 ) e (u1 , u2 ). Le coordinate del vettore geometrico v+(w+u) sono  v1 +(w1 + u1 ) , v2 +(w2 + u2 ) = (v1 + w1 + u1 , v2 + w2 + u2 ) . Le coordinate del vettore geometrico (v + w) + u sono  (v1 + w1 )+ u1 , (v2 + w2 )+ u2 = (v1 + w1 + u1 , v2 + w2 + u2 ) .

Avendo le stesse coordinate, i due vettori geometrici v + (w + u) e (v + w) + u coincidono. • Per ogni v, w ∈ V 2E , il vettore geometrico v − w esiste ed è unico. Fissiamo un sistema di riferimento cartesiano (O; x, y). I vettori geometrici v e w hanno coordinate rispettivamente (v1 , v2 ) e (w1 , w2 ). Stiamo cercando un vettore geometrico u tale che v = w + u. Se il vettore geometrico u ha coordinate (u1 , u2 ), abbiamo che il vettore geometrico w + u ha coordinate (w1 + u1 , w2 + u2 ). Questo vettore è uguale a v se e solo se le sue coordinate coincidono con quelle di v, ossia se e solo se la coppia (w1 + u1 , w2 + u2 ) coincide con (v1 , v2 ). Quindi abbiamo le due equazioni w1 + u1 = v1 e w2 + u2 = v2 nelle due incognite u1 e u2 . Risolvendole ◮, otteniamo u1 = v1 − w1 e u2 = v2 − w2 , ossia il vettore u ha coordinate (v1 − w1 , v2 − w2 ).

◮ Non è proprio difficile.

Coordinate nello spazio Supponiamo ora di avere a che fare con lo spazio. Fissiamo un sistema di riferimento cartesiano (O; x, y, z). Allora i vettori geometrici sono identificati dalle terne di numeri reali ◮. Esempio 8.4. Nella figura è mostrato un sistema di riferimento cartesiano nello spazio, e il vettore geometrico le cui coordinate sono (−2, 4, 3).

◮ Le coordinate di un punto nel piano sono tre.

Le coordinate della somma di due vettori geometrici sono la somma delle rispettive coordinate dei vettori geometrici, ossia se v ha coordinate (v1 , v2 , v3 ) e w ha coordinate (w1 , w2 , w3 ), allora v + w ha coordinate (v1 + w1 , v2 + w2 , v3 + w3 ). Le coordinate del prodotto per scalare di un vettore geometrico per un numero reale λ sono il prodotto delle rispettive coordinate del vettore geometrico con λ, ossia se v ha coordinate (v1 , v2 , v3 ), allora λ · v ha coordinate (λv1 , λv2 , λv3 ).

Esempio 8.5. Dati v = (1, 2, −1), w = (3, 0, 2) e λ = −1, abbiamo v + w = (1 + 3, 2 + 0, −1 + 2) = (4, 2, 1),

v − w = (1 − 3, 2 − 0, −1 − 2) = (−2, 2, −3),

w − v = (3 − 1, 0 − 2, 2 − (−1)) = (2, −2, 3),

λv = (−1 · 1, −1 · 2, −1 · (−1)) = (−1, −2, 1), λw = (−1 · 3, −1 · 0, −1 · 2) = (−3, 0, −2).

Utilizzando le coordinate, come abbiamo fatto per V 2E , è facile dimostrare ciò che abbiamo enunciato sopra anche per V 3E . • Per ogni v, w, u ∈ V 3E , abbiamo v + (w + u) = (v + w) + u. ◮ • Per ogni v, w ∈ V

c 2014 Gennaro Amendola

3 E,

il vettore geometrico v −w esiste ed è unico. ◮

Versione 1.0

◮ Esercizio 8.5. ◮ Esercizio 8.11.

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 8/S1 Vettori geometrici 1

Sessione di Studio 8.1

Vettori geometrici

Lezione 8. Vettori geometrici

8–6

Sessione di Studio 8.1 Esercizio 8.1. Disegna un vettore geometrico v. Disegna il prodotto per scalare di v per il numero reale 2 (chiama w il risultato). Disegna il prodotto per scalare di v per il numero reale 3. Disegna il prodotto per scalare di v per il numero reale −1. Disegna la somma di v e w. Disegna la differenza tra v e w. Soluzione.

Esercizio 8.2. Fissa un sistema di riferimento cartesiano (O; x, y, z) nello spazio, e disegna il vettore geometrico le cui coordinate sono (1, 3, 2).

Soluzione.

Esercizio 8.3. Calcola le coordinate del vettore geometrico rispetto al sistema di riferimento cartesiano (O; x, y) indicati in figura, considerando che il modulo del vettore è 4 e l’angolo α è 3π 4 .  √  √  Soluzione. Le coordinate sono x = 4 · cos 3π = 4 · − 22 = −2 2 e 4 √ √  2 y = 4 · sen 3π = 4 · 4 2 = 2 2. Esercizio 8.4. Dati v = (2, 3), w = (3, −1) e λ = −2, calcola v + w, v − w, w − v, λv e λw.

Soluzione. Abbiamo v + w = (2 + 3, 3 + (−1)) = (5, 2), v − w = (2 − 3, 3 − (−1)) = (−1, 4), w − v = (3 − 2, −1 − 3) = (1, −4), λv = (−2 · 2, −2 · 3) = (−4, −6) e λw = (−2 · 3, −2 · (−1)) = (−6, 2). Esercizio 8.5. Dimostra che per ogni v, w, u ∈ V 3E , abbiamo v + (w + u) = (v + w) + u. Soluzione. Fissiamo un sistema di riferimento cartesiano (O; x, y, z). I vettori geometrici v, w e u hanno coordinate rispettivamente (v1 , v2 , v3 ), (w1 , w2 , w3 ) e (u1 , u2 , u3 ). Le coordinate del vettore geometrico v + (w + u) sono   v1 +(w1 + u1 ) , v2 +(w2 + u2 ) , v3 +(w3 + u3 ) = v1 +w1 +u1 , v2 +w2 +u2 , v3 +w3 +u3 . c 2014 Gennaro Amendola

Versione 1.0

Lezione 8. Vettori geometrici

8–7

Le coordinate del vettore geometrico (v + w) + u sono   (v1 + w1 )+u1 , (v2 + w2 )+u2 , (v3 + w3 )+u3 = v1 +w1 +u1 , v2 +w2 +u2 , v3 +w3 +u3 .

Avendo le stesse coordinate, i due vettori geometrici v + (w + u) e (v + w) + u coincidono.

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 8/S2 Vettori geometrici 1

Sessione di Studio 8.2

Vettori geometrici

Lezione 8. Vettori geometrici

8–8

Sessione di Studio 8.2 Esercizio 8.6. Disegna due vettori geometrici, la loro somma e la loro differenza. Disegna un vettore geometrico, e il prodotto per scalare di esso per il numero reale − 21 .

Esercizio 8.7. Fissa un sistema di riferimento cartesiano (O; x, y) nel piano, e disegna il vettore geometrico le cui coordinate sono (3, −1). Esercizio 8.8. Calcola le coordinate del vettore geometrico rispetto al sistema di riferimento cartesiano (O; x, y) indicati in figura, considerando che il modulo del vettore è 3 e l’angolo α è π6 .

Esercizio 8.9. Dati v = (−1, 4), w = (2, 7) e u = (0, 3), calcola esplicitamente v + (w + u) e (v + w) + u. Esercizio 8.10. Dato v = (−1, 4), calcola 2v, 0v e −3v.

Esercizio 8.11. Dimostra che per ogni v, w ∈ V 3E , il vettore geometrico v − w esiste ed è unico.

c 2014 Gennaro Amendola

Versione 1.0

Lezione 8. Vettori geometrici

8–9

Risultato dell’Esercizio 8.6.

Questo esercizio non ha un’unica soluzione, quindi il lettore può trovare una soluzione diversa.

Risultato dell’Esercizio 8.7.

Questo esercizio non ha un’unica soluzione, quindi il lettore può trovare una soluzione diversa.

Risultato dell’Esercizio 8.8. x =

√ 3 3 2 ,

y = 23 .

Risultato dell’Esercizio 8.9. v + (w + u) = (−1, 4)+ (2, 10) = (1, 14), (v + w) + u = (1, 11) + (0, 3) = (1, 14). Risultato dell’Esercizio 8.10. 2v = (−2, 8), 0v = (0, 0), −3v = (3, −12).

Risultato dell’Esercizio 8.11. Ripeti ciò che abbiamo fatto per V 2E nella lezione, considerando un sistema di riferimento cartesiano (O; x, y, z) for V 3E . ◮

c 2014 Gennaro Amendola

Versione 1.0

◮ Vedi anche l’Esercizio 8.5.

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

#corso# INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA #insegnamento# 8/S3 #lezione# Vettori geometrici #titolo# 1 #attività#

Sessione di Studio 8.3

Vettori geometrici

Lezione 8. Vettori geometrici

8–10

Sessione di Studio 8.3 Letture supplementari possono essere le seguenti: • http://it.wikipedia.org/wiki/Vettore_(matematica)

• http://it.wikipedia.org/wiki/Sistema_di_riferimento_cartesiano

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 8/S3 Vettori geometrici 3

Sessione di Studio 8.3 Quiz

Vettori geometrici

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 8/S3 Vettori geometrici 3

• Risolvere il seguente quiz a risposta multipla in cui per ogni domanda una sola risposta è giusta. • Rivedere le risposte del quiz.

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 9 OPERAZIONI, GRUPPI E CAMPI 1

Lezione 9 Operazioni, gruppi e campi

Lezione 9

Operazioni, gruppi e campi In questa lezione ci occuperemo delle operazioni sugli insiemi. Essi sono il punto chiave per definire gli spazi vettoriali, che sono l’oggetto principale del corso.

9.1

Operazioni

Definizione 9.1. Una operazione su un insieme X è una funzione

Operazione

• : X × X → X.

Dati due elementi x, y ∈ X, l’immagine della coppia (x, y) è detta risultato dell’operazione ed è indicata con x • y.

Osservazione 9.2. Per essere più precisi, avremmo dovuto utilizzare il termine operazione binaria, perché possono essere considerate anche operazioni con più di due argomenti. Visto che però useremo solo operazioni con due argomenti, per non appesantire la trattazione, useremo solo il termine operazione. Inoltre, alcuni libri di testo usano il termine operazione interna perché possono essere considerate anche operazioni che hanno come risultato elementi che non sono nell’insieme X.

Risultato Operazione binaria

Operazione interna

Osservazione 9.3. Con la notazione classica delle funzioni, avremmo dovuto indicare l’immagine della coppia (x, y) con •(x, y). Invece, usiamo la notazione x • y per due motivi. Da una parte semplifichiamo la notazione, ottenendo formule più semplici; dall’altra usiamo una notazione analoga a quella delle operazioni che già conosciamo (la somma e la moltiplicazione tra numeri). Esempio 9.4. 1. Consideriamo l’insieme {0} formato da un solo elemento; su esso possiamo definire in modo banale una operazione (che consideriamo un’addizione per motivi che vedremo in seguito ◮): + : {0} × {0} → {0}

with 0 + 0 := 0.

2. Consideriamo le operazioni di addizione e di moltiplicazione sull’insieme dei numeri naturali: +: N × N → N c 2014 Gennaro Amendola

e

· : N × N → N. Versione 1.0

Se c’è un solo elemento, non c’è scelta per la definizione delle operazioni.

◮ Esempio 10.6-2.

Lezione 9. Operazioni, gruppi e campi

9–2

Nel primo caso ad ogni coppia di numeri naturali (n, m) associamo ◮ la loro somma n + m, ◮ nel secondo il loro prodotto n · m. ◮

3. Le operazioni di addizione e di moltiplicazione sull’insieme dei numeri naturali possono essere estese anche ad altri insiemi: ◮ interi + : Z × Z → Z e · : Z × Z → Z, numeri razionali + : Q × Q → Q e · : Q × Q → Q, numeri reali + : R × R → R e · : R × R → R, numeri complessi + : C × C → C e · : C × C → C.

4. Abbiamo visto nella Lezione 8 che sui vettori geometrici può essere definita una operazione di addizione: + : V 2E × V 2E → V 2E

e

+ : V 3E × V 3E → V 3E .

◮ Ad esempio, la somma di 2 e 3 è 2 + 3 = 5. ◮ ◮ Ad esempio, il prodotto di 2 e 3 è 2 · 3 = 6. ◮ Ad esempio,

• la somma di 2 e −3 è 2+(−3) = −1, • il prodotto di 25 e − 23 è 3 3 2 · (− ) = − , 5 2 5 √ √ • la somma di 2 e π è 2 + π, • il prodotto di 2 + i e −3 + 4i è (2 + i) · (−3 + 4i) = −6 + 8i − 3i + 4i2 = −10 + 5i.

5. Le operazioni di addizione e di moltiplicazione su un insieme I ◮ possono essere estese anche ai polinomi I[x1 , x2 , . . . , xn ] a coefficienti in I: + : I[x1 , x2 , . . . , xn ] × I[x1 , x2 , . . . , xn ] → I[x1 , x2 , . . . , xn ] ,

◮ I può essere N, Z, Q, . . . : l’unica proprietà che deve soddisfare è che su esso siano definite una addizione e una moltiplicazione.

associamo la loro somma p (x1 , x2 , . . . , xn )+q (x1 , x2 , . . . , xn ), ◮ nel ◮ secondo il loro prodotto p (x1 , x2 , . . . , xn ) · q (x1 , x2 , . . . , xn ). ◮ Per quanto riguarda i polinomi di grado al più m, vale la stessa cosa per l’addizione, ma non per la moltiplicazione. Infatti, abbiamo l’operazione

2 2 2 ◮ Ad esempio,  la somma di x + y e 3x − y è x2 + y + 3x2 − y 2 = 4x2 − y 2 + y.

· : I[x1 , x2 , . . . , xn ] × I[x1 , x2 , . . . , xn ] → I[x1 , x2 , . . . , xn ] . Nel primo caso ad ogni coppia di polinomi  p (x1 , x2 , . . . , xn ) , q (x1 , x2 , . . . , xn )

2 2 ◮ ◮ Ad esempio, il prodotto di  x + y e 3x − y 2 è x2 + y · 3x2 − y 2 = 3x4 − x2 y 2 + 3x2 y − y 3 .

+ : I6m [x1 , x2 , . . . , xn ]×I6m[x1 , x2 , . . . , xn ] → I6m[x1 , x2 , . . . , xn ] , ossia ad ogni coppia di polinomi

p (x1 , x2 , . . . , xn ) , q (x1 , x2 , . . . , xn )



di grado al più m associamo la loro somma p (x1 , x2 , . . . , xn ) + q (x1 , x2 , . . . , xn ), che ha grado al più m ◮. Per quanto riguarda la moltiplicazione, non è più vero che il grado del prodotto di polinomi è minore o uguale al massimo dei gradi dei singoli polinomi ◮, quindi la moltiplicazione sull’insieme dei polinomi di grado al più m non è una operazione. Notazione 9.5. Ogni operazione che soddisfa proprietà simili a quelle soddisfatte dall’addizione sui numeri interi è chiamata addizione ed è indicata con un simbolo analogo a “+”. Ogni operazione che soddisfa proprietà simili a quelle soddisfatte dalla moltiplicazione sui numeri razionali o reali è chiamata moltiplicazione ed è indicata con un simbolo analogo a “·” o a “×”. Notazione 9.6. D’ora in poi, se non specifichiamo i coefficienti dei polinomi, supponiamo che essi appartengano a un insieme su cui tutte le operazioni necessarie sono definite. Inoltre, per semplificare la notazione, supponiamo che tutti i polinomi abbiano coefficienti in Q, R o C. Qualcosa di ciò che diremo vale anche per altri insiemi (ad esempio, Z o N), ma ci concentreremo su Q, R o C, perché essi soddisfano tutte le proprietà di cui avremo bisogno. ◮ c 2014 Gennaro Amendola

Versione 1.0

◮ Osservazione 5.26. ◮ Osservazione 5.31.

Addizione

Moltiplicazione

◮ Esempio 9.31-3.

Lezione 9. Operazioni, gruppi e campi

9–3

Definizione 9.7. Una operazione • su un insieme X soddisfa la proprietà associativa se per ogni x, y, z ∈ X si ha x • (y • z) = (x • y) • z. Esempio 9.8. Tutte le operazioni dell’Esempio 9.4 soddisfano la proprietà associativa. 1. Per l’operazione + definita su {0} la proprietà associativa è semplicemente 0 + (0 + 0) = (0 + 0) + 0.

Proprietà associativa

In {0} there is one element only: 0.

2. Dati tre numeri naturali qualsiasi n, m, k ∈ N abbiamo n + (m + k) = (n + m) + k. Dati tre numeri naturali qualsiasi n, m, k ∈ N abbiamo n · (m · k) = (n · m) · k.

Ad esempio, abbiamo 2+(5+6) = (2+5)+ 6, infatti abbiamo 2 + (5 + 6) = 2 + 11 = 13 e (2 + 5) + 6 = 7 + 6 = 13.

4. Abbiamo visto nella Lezione 8 che l’addizione sui vettori geometrici soddisfa la proprietà associativa.

◮ La dimostrazione per C è rispettivamente negli Esercizi 9.6 e 9.1.

3. Dati tre numeri interi qualsiasi n, m, k ∈ Z abbiamo n + (m + k) = (n + m) + k and n · (m · k) = (n · m) · k. Lo stesso vale per Q, R e C. ◮

 Ad esempio, abbiamo (−2) · 5 · (−6) =  (−2) · 5 · (−6), infatti abbiamo (−2) · 5 ·   (−6) = (−2) · (−30) = 60 e (−2) · 5 · (−6) = (−10) · (−6) = 60.

5. Dati tre polinomi qualsiasi p (x1 , x2 , . . . , xn ) , q (x1 , x2 , . . . , xn ) , r (x1 , x2 , . . . , xn ) ∈ I[x1 , x2 , . . . , xn ] , abbiamo  p (x1 , x2 , . . . , xn ) + q (x1 , x2 , . . . , xn ) + r (x  1 , x2 , . . . , xn ) = p (x1 , x2 , . . . , xn ) + q (x1 , x2 , . . . , xn ) + r (x1 , x2 , . . . , xn ) e  p (x1 , x2 , . . . , xn ) · q (x1 , x2 , . . . , xn ) · r (x  1 , x2 , . . . , xn ) = p (x1 , x2 , . . . , xn ) · q (x1 , x2 , . . . , xn ) · r (x1 , x2 , . . . , xn ) .

Non daremo la dimostrazione di questo fatto, ma mostreremo solo un esempio rispettivamente negli Esercizi 9.2 e 9.7.

Osservazione 9.9. Se un’operazione • su un insieme X gode della proprietà associativa, possiamo non usare le parentesi. Infatti, per ogni x, y, z ∈ X la scrittura x • y • z non è ambigua perché i due possibili risultati, x • (y • z) e (x • y) • z, coincidono. Questo risultato vale anche per sequenze arbitrariamente lunghe, ossia x1 , x2 , . . . , xn sono n elementi di X, con n > 3, la scrittura x1 • x2 • · · · • xn non è ambigua. D’ora in poi, quindi, per non appesantire la trattazione, non useremo le parentesi, a meno che esse chiarificano il significato di una formula.

Per esempio, possiamo scrivere 2 + 5 + 6, infatti 2 + (5 + 6) = 2 + 11 = 13 e (2 + 5) + 6 = 7 + 6 = 13 hanno lo stesso risultato.

Definizione 9.10. Un elemento neutro per una operazione • su un insieme X è un elemento e ∈ X tale che x • e = e • x = x per ogni x ∈ X.

Elemento neutro

Esempio 9.11. Descriviamo l’elemento neutro delle operazioni dell’Esempio 9.4. 1. Per l’operazione + definita su {0} l’elemento neutro è 0, infatti abbiamo 0 + 0 = 0.

2. Per l’addizione sui numeri naturali l’elemento neutro è 0, infatti abbiamo 0 + n = n per ogni n ∈ N. Per la moltiplicazione sui numeri naturali l’elemento neutro è 1, infatti abbiamo 1 · n = n per ogni n ∈ N. c 2014 Gennaro Amendola

Versione 1.0

In {0} c’è un solo elemento: 0. Alcuni considerano che N inizia da 1, ossia N = {1, 2, . . .}: in questo caso l’addizione su N non avrebbe l’elemento neutro perché 0 non apparterrebbe a N.

Lezione 9. Operazioni, gruppi e campi

9–4

3. Per l’addizione sui numeri interi l’elemento neutro è 0, infatti abbiamo 0 + h = h per ogni h ∈ Z. Per la moltiplicazione sui numeri interi l’elemento neutro è 1, infatti abbiamo 1 · h = h per ogni h ∈ Z. Lo stesso vale per Q, R e C. 4. Abbiamo visto nella Lezione 8 che l’elemento neutro per l’addizione sui vettori geometrici è il vettore nullo.

5. L’elemento neutro per un insieme di polinomi è il polinomio nullo. ◮ Proposizione 9.12. Sia • una operazione su un insieme X con un elemento neutro. Allora, questo elemento è unico. Dimostrazione. Dimostriamo che se consideriamo due elementi neutri e ed e′ per l’operazione •, essi coincidono. Visto che e è un elemento neutro, abbiamo x • e = x per ogni x ∈ X, e quindi in particolare e′ • e = e′ . Analogamente, visto che e′ è un elemento neutro, abbiamo e′ • e = e. Quindi abbiamo e = e′ • e = e′ , ossia e = e′ .

◮ Si veda l’Esempio 5.27-4 per l’uguaglianza p + 0 = p, con l’altra, 0 + p = p, che è identica.

Questa proposizione spiega perché nell’esempio precedente abbiamo usato l’articolo definito, mentre nella definizione prima abbiamo usato quello indefinito.

Analogamente a quanto succede per l’addizione e la moltiplicazione tra numeri, useremo la seguente notazione. Notazione 9.13. Quando l’operazione è un’addizione indicheremo l’elemento neutro con 0, mentre quando l’operazione è una moltiplicazione indicheremo l’elemento neutro con 1. Definizione 9.14. Sia • una operazione su un insieme X con elemento • neutro e. Si fissi x ∈ X. Un elemento x ∈ X è detto opposto o inverso • • di x se x • x = x • x = e.

Esempio 9.15. Studiamo gli elementi opposti/inversi per le operazioni dell’Esempio 9.4. 1. Per l’operazione + definita su {0} l’opposto dell’unico elemento, 0, è 0, infatti abbiamo 0 + 0 = 0 ◮. 2. Per l’addizione su N ci sono elementi che non hanno opposto, per esempio 1 non ha opposto, infatti le equazioni 1 + n = n + 1 = 0 non hanno soluzione in N ◮. Anche per la moltiplicazione su N ci sono elementi che non hanno inverso, per esempio 2 non ha inverso, infatti le equazioni 2 · n = n · 2 = 1 non hanno soluzione in N ◮. 3. Per l’addizione su Z tutti gli elementi hanno un opposto, infatti, dato (un qualsiasi) h ∈ Z, il suo opposto è −h ◮. Invece, per la moltiplicazione su Z ci sono elementi che non hanno inverso, per esempio 2 non ha inverso, infatti le equazioni 2 · n = n · 2 = 1 non hanno soluzione in Z ◮. Per l’addizione su Q and R tutti gli elementi hanno un opposto, infatti, dato (un qualsiasi) x nell’insieme considerato, il suo opposto è −x ◮. Per la moltiplicazione su Q e R tutti gli elementi, eccetto 0, hanno un inverso, infatti, dato (un qualsiasi) x 6= 0 nell’insieme considerato, il suo inverso è x1 ◮. 4. Per l’addizione sui vettori geometrici l’opposto di un vettore v è il vettore −v con la stessa direzione e modulo di v ma verso opposto, infatti la somma v + (−v) è il vettore nullo.

c 2014 Gennaro Amendola

Versione 1.0

Opposite/inverse

opposto

◮0 +

z}|{ 0 =

elemento neutro

z}|{ 0

.

◮ 1 + n è maggiore di 0 per ogni n ∈ N. ◮ 2 · n è pari per ogni n ∈ N. ◮ h + (−h) = (−h) + h = 0 per ogni h ∈ Z.

◮ 2 · n è pari per ogni n ∈ Z.

◮ x + (−x) = (−x) + x = 0 per ogni x. ◮x ·

1 x

=

1 x

· x = 1 per ogni x.

Lezione 9. Operazioni, gruppi e campi

9–5

5. Per l’addizione sui polinomi, l’opposto di un polinomio p è il polinomio 0 − p, ossia il polinomio ottenuto cambiando il segno dei coefficienti di p, infatti 0−p è il polinomio tale che p+(0−p) = 0. ◮ Per la moltiplicazione sui polinomi, l’inverso di un polinomio p può non esistere, infatti un polinomio p con grado 1 non può avere un inverso, perché se q fosse l’inverso (cosicché p · q = 1) il grado di 1 ◮ sarebbe 1 + deg(q) > 1 ◮, che è una contraddizione. ◮ Esempio 9.16. Per l’addizione su C tutti gli elementi hanno un opposto, infatti, dato (un qualsiasi) numero complesso z = a + ib, il suo opposto è −z = −a − ib ◮. Per la moltiplicazione su C tutti gli elementi, eccetto 0, hanno un inverso, infatti, dato (un qualsiasi) numero complesso z = a+ib non nullo, il suo inverso è 1 a b := 2 −i 2 , z a + b2 a + b2 infatti   a b b2 1 a2 z · = (a + ib) · − i + = 1. = z a 2 + b2 a 2 + b2 a2 + b2 a2 + b2 Osservazione 9.17. Sia • una operazione su un insieme X che gode della proprietà associativa, con elemento neutro e. Fissiamo x ∈ X che ha un opposto/inverso. Allora, possiamo applicare la proprietà di cancellazione alle uguaglianze, ossia abbiamo le due implicazioni seguenti: y•x =z•x

x•y =x•z





y = z,

◮ Definizione 5.28.

◮ Osservazione 5.31. ◮ ◮ deg(1) = 0.

◮ (a+ib)+(−a−ib) = (−a−ib)+(a+ib) = 0 per ogni a, b ∈ R.

Proprietà di cancellazione La richiesta che x abbia un inverso è fondamentale. Se x non avesse un inverso non potremmo applicare la regola di cancellazione. Ad esempio, abbiamo 0 · 1 = 0 · 2, but 1 6= 2.

y = z.

Infatti, supponiamo di avere y • x = z • x. Applicando la stessa • operazione a entrambi i membri l’uguaglianza rimane, quindi (y •x)• x =    • • • (z • x) • x. Per la proprietà associativa abbiamo y • x • x = z • x • x ,

Qui dimostriamo la proprietà di cancellazione.



ossia, visto che x è un opposto/inverso di x, abbiamo y • e = z • e, e quindi otteniamo y = z. La seconda implicazione è analoga.

Proposizione 9.18. Sia • una operazione su un insieme X che gode della proprietà associativa e ha un elemento neutro e. Allora, se esiste l’opposto/inverso di un elemento x ∈ X ◮, esso è unico. Dimostrazione. Dimostriamo che, se consideriamo due opposti/inversi • • di x, essi coincidono. Siano tali opposti/inversi x1 e x2 . Abbiamo che • • • • x • x1 = e e x • x2 = e, quindi x • x1 = x • x2 . Tramite la proprietà di • • cancellazione, eliminiamo x e otteniamo x1 = x2 . Osservazione 9.19. Sia • una operazione su un insieme X che gode della proprietà associativa e ha un elemento neutro e. Se x è un elemento • • • che ha un inverso, x, allora l’inverso di x è x. Infatti, abbiamo x • x = e • • e x • x = e, quindi x è un inverso di x, ed è unico per la precedente proposizione. Notazione 9.20. Nei libri di testo si possono trovare altri termini oltre a “opposto” e “inverso”. Noi useremo il termine “opposto” quando l’operazione è un’addizione, mentre useremo il termine “inverso” quando c 2014 Gennaro Amendola

Versione 1.0

◮ Ricordiamo che alcuni elementi possono non avere nessun inverso. Qui, stiamo considerando solo il caso in cui l’elemento x ha un inverso.

Lezione 9. Operazioni, gruppi e campi

9–6

l’operazione è una moltiplicazione. Nel primo caso indicheremo l’opposto di un elemento x con un simbolo analogo a “−x”; inoltre, invece di scrivere x + (−y), scriveremo x − y. Nel secondo caso indicheremo l’inverso di un elemento x con “x−1 ”, e scriveremo xy invece di scrivere x · y −1 . Definizione 9.21. Una operazione • su un insieme X soddisfa la proprietà commutativa se per ogni x, y ∈ X si ha x • y = y • x.

Esempio 9.22. Tutte le operazioni dell’Esempio 9.4 soddisfano la proprietà commutativa. 1. Per l’operazione + definita su {0} la proprietà commutativa è semplicemente 0 + 0 = 0 + 0 ◮. 2. Dati due numeri naturali qualsiasi n, m ∈ N abbiamo n + m = m + n. Dati due numeri naturali qualsiasi n, m ∈ N abbiamo n · m = m · n. 3. Dati due numeri interi qualsiasi h, k ∈ Z abbiamo h + k = k + h e h · k = k · h. Lo stesso vale per Q, R e C. ◮

4. Abbiamo visto nella Lezione 8 che l’addizione sui vettori geometrici soddisfa la proprietà commutativa.

Proprietà commutativa

In {0} c’è un solo elemento: 0. ◮ I due “0” si scambiano di posizione, anche se non si vede. Per esempio, abbiamo 2 + 5 = 5 + 2, infatti abbiamo 2 + 5 = 7 e 2 + 5 = 7.

Per esempio, abbiamo (−2) · 5 = 5 · (−2), infatti abbiamo (−2) · 5 = −10 e 5 · (−2) = −10.

◮ La dimostrazione per C è rispettivamente negli Esercizi 9.3 e 9.8.

5. Dati due polinomi qualsiasi p (x1 , x2 , . . . , xn ) , q (x1 , x2 , . . . , xn ) ∈ I[x1 , x2 , . . . , xn ] ,

abbiamo

p (x1 , x2 , . . . , xn )+q (x1 , x2 , . . . , xn ) = q (x1 , x2 , . . . , xn )+p (x1 , x2 , . . . , xn ) e p (x1 , x2 , . . . , xn )·q (x1 , x2 , . . . , xn ) = q (x1 , x2 , . . . , xn )·p (x1 , x2 , . . . , xn ) . Non daremo la dimostrazione di questo fatto, ma mostreremo solo un esempio rispettivamente negli Esercizi 9.9 e 9.4. Definizione 9.23. Sia X un insieme dotato di due operazioni ⊕ e ⊙. L’operazione ⊙ soddisfa la proprietà distributiva rispetto all’operazione ⊕ se per ogni x, y, z ∈ X si ha (x ⊕ y) ⊙ z = (x ⊙ z) ⊕ (y ⊙ z) e z ⊙ (x ⊕ y) = (z ⊙ x) ⊕ (z ⊙ y).

Proprietà distributiva

Esempio 9.24. Tutte le moltiplicazioni dell’Esempio 9.4 soddisfano la proprietà distributiva rispetto all’addizione dell’insieme rispettivo. 1. Sull’insieme {0} non abbiamo definito due operazioni, quindi non ci interessiamo della proprietà distributiva.

2. Dati tre numeri naturali qualsiasi n, m, k ∈ N abbiamo n·(m+k) = (n · m) + (n · k) e (m + k) · n = (m · n) + (k · n). 3. Dati tre numeri interi qualsiasi n, m, k ∈ N abbiamo n · (m + k) = (n · m) + (n · k) e (m + k) · n = (m · n) + (k · n). Lo stesso vale per Q, R e C. ◮

4. Sui vettori geometrici non abbiamo definito una moltiplicazione. Nota che la moltiplicazione per scalare non è un’operazione. ◮ 5. Dati tre polinomi qualsiasi p (x1 , x2 , . . . , xn ) , q (x1 , x2 , . . . , xn ) , r (x1 , x2 , . . . , xn ) ∈ I[x1 , x2 , . . . , xn ] , c 2014 Gennaro Amendola

Versione 1.0

Per esempio, abbiamo 2 · (5 + 6) = (2 · 5) + (2·6), infatti abbiamo 2·(5+6) = 2·11 = 22 e (2 · 5) + (2 · 6) = 10 + 12 = 22.

◮ La dimostrazione per C è nell’Esercizio 9.10. ◮ Comunque sia, vedremo sotto che la proprietà distributiva è soddisfatta anche in questo caso.

Lezione 9. Operazioni, gruppi e campi

9–7

abbiamo  p (x1 , x2 , . . . , xn ) · q (x1 , x2 , . . . , xn ) +r (x1 , x2 , . . . , xn ) =  p (x1 , x2 , . . . , xn ) · q (x1 , x2 , . . . , xn ) + p (x1 , x2 , . . . , xn ) · r (x1 , x2 , . . . , xn ) e  q (x1 , x2 , . . . , xn ) + r (x1 , x2 , . . . , xn ) · p (x1 , x2 , . . . , xn ) =  q (x1 , x2 , . . . , xn ) · p (x1 , x2 , . . . , xn ) + r (x1 , x2 , . . . , xn ) · p (x1 , x2 , . . . , xn ) . Non daremo la dimostrazione di questo fatto, ma mostreremo solo un esempio nell’Esercizio 9.11.

Osservazione 9.25. 1. Sia • una operazione su un insieme X che gode della proprietà commutativa. Allora, per dimostrare che e è l’elemento neutro, non dobbiamo dimostrare che per ogni x ∈ X sono verificate entrambe le uguaglianze, x • e = x e e • x = x. Ci possiamo limitare a dimostrare, per ogni x ∈ X, una sola delle due uguaglianze; l’altra è automaticamente verificata, infatti per la proprietà commutativa abbiamo x • e = e • x. Analogamente, per dimostrare che un elemento x ∈ X ha un oppo• • sto/inverso, possiamo limitarci a trovare x ∈ X tale che x • x = e • o x • x = e; l’altra uguaglianza è automaticamente soddisfatta.

Questa osservazione dimezza i conti, infatti nei casi che considereremo le dimostrazioni delle coppie di uguaglianze sarebbero molto simili e ne faremo solo una.

2. Sia X un insieme dotato di due operazioni ⊕ e ⊙, tali che ⊙ soddisfa la proprietà commutativa. Allora, per dimostrare che l’operazione ⊙ soddisfa la proprietà distributiva rispetto all’operazione ⊕, non dobbiamo dimostrare che per ogni x, y, z ∈ X sono verificate entrambe le uguaglianze, (x ⊕ y) ⊙ z = (x ⊙ z) ⊕ (y ⊙ z) e z ⊙ (x ⊕ y) = (z ⊙ x) ⊕ (z ⊙ y). Ci possiamo limitare a dimostrare, per ogni x, y, z ∈ X, una sola delle due uguaglianze; l’altra è automaticamente verificata, infatti per la proprietà commutativa le due condizioni (x⊕y)⊙z = (x⊙z)⊕(y⊙z) e z⊙(x⊕y) = (z⊙x)⊕(z⊙y) sono equivalenti.

Nel seguito useremo quasi sempre operazioni che soddisfano tutte le proprietà descritte sopra (le uniche eccezioni saranno la moltiplicazione righe per colonne e il prodotto vettoriale, che non soddisfano la proprietà commutativa), quindi possiamo applicare quasi tutti i risultati enunciati in questa sezione.

9.2

Gruppi e campi

Definizione 9.26. Un gruppo abeliano o gruppo commutativo è un insieme G dotato di una operazione

Gruppo abeliano/commutativo

•: G × G → G

che soddisfa le seguenti proprietà: (G1) per ogni g1 , g2 , g3 ∈ G si ha g1 • (g2 • g3 ) = (g1 • g2 ) • g3 (proprietà associativa), (G2) esiste e ∈ G tale che g • e = e • g = g per ogni g ∈ G (esistenza dell’elemento neutro), •





(G3) per ogni g ∈ G esiste g ∈ G tale che g • g = g • g = e (esistenza dell’opposto/inverso), c 2014 Gennaro Amendola

Versione 1.0

Per l’Osservazione 9.9 scrivere le parentesi.

possiamo

non

Lezione 9. Operazioni, gruppi e campi

9–8

(G4) per ogni g1 , g2 ∈ G si ha g1 • g2 = g2 • g1 (proprietà commutativa).

Osservazione 9.27. L’operazione • di cui è dotato il gruppo abeliano G fa parte della definizione, ossia il gruppo abeliano non è solo l’insieme G, bensì la coppia (G, •). Può succedere, ad esempio, che su G ci siano più operazioni e che G sia un gruppo abeliano solo rispetto a una di esse. Oppure può succedere che G sia un gruppo abeliano rispetto a due diverse operazioni: in tal caso abbiamo due gruppi abeliani distinti, uno per ciascuna operazione, entrambi sullo stesso insieme G. Non useremo la notazione (G, •) per non appesantire la notazione. Esempio 9.28. 1. L’insieme {0} dotato dell’operazione di addizione definita nell’Esempio 9.4-1 è un gruppo abeliano, infatti abbiamo già dimostrato le quattro proprietà (G1), (G2), (G3) e (G4) ◮.

2. L’insieme dei numeri naturali N non è un gruppo abeliano rispetto all’addizione, infatti abbiamo visto che può non esistere l’opposto di un elemento rispetto all’addizione. Inoltre, N non è un gruppo abeliano nemmeno rispetto alla moltiplicazione, infatti abbiamo visto che può non esistere l’inverso di un elemento rispetto alla moltiplicazione. ◮ 3. L’insieme dei numeri interi Z è un gruppo abeliano rispetto all’addizione, infatti abbiamo già dimostrato le quattro proprietà (G1), (G2), (G3) e (G4) ◮. Al contrario, Z non è un gruppo abeliano rispetto alla moltiplicazione, infatti abbiamo visto che può non esistere l’inverso di un elemento rispetto alla moltiplicazione. ◮ Analogamente, gli insiemi Q, R e C sono gruppi abeliani rispetto all’addizione. Essi non sono gruppi abeliani rispetto alla moltiplicazione, infatti l’inverso di 0 non esiste. ◮ Invece, se rimuoviamo 0 otteniamo gruppi abeliani: gli insiemi Q \ {0}, R \ {0} e C \ {0} sono gruppi abeliani rispetto alla moltiplicazione, infatti abbiamo già dimostrato le quattro proprietà (G1), (G2), (G3) e (G4) ◮. 4. Gli insiemi di vettori geometrici V 2E e V 3E sono gruppi abeliani rispetto all’addizione, infatti abbiamo già dimostrato le quattro proprietà (G1), (G2), (G3) e (G4) ◮. ◮ so5. Gli insiemi di polinomi I[x1 , x2 , . . . , xn ] e I6m[x1 , x2 , . . . , xn ] ◮ no gruppi abeliani rispetto all’addizione, infatti abbiamo già dimo◮ strato le quattro proprietà (G1), (G2), (G3) e (G4) ◮ ◮.

Definizione 9.29. Un campo è un insieme K dotato di due operazioni, una detta addizione

◮ Rispettivamente negli Esempi 9.8-1, 9.111, 9.15-1 e 9.22-1.

◮ Esempio 9.15-2.

◮ Rispettivamente negli Esempi 9.8-3, 9.113, 9.15-3 e 9.22-3. ◮ Esempio 9.15-3.

◮ 0 · x = 1 non ha soluzione, infatti 0 · x = 0 per ogni x.

◮ Rispettivamente negli Esempi 9.8-3, 9.113, 9.15-3 (9.16 for C) e 9.22-3.

◮ Rispettivamente negli Esempi 9.8-4, 9.114, 9.15-4 e 9.22-4. ◮ Ricordiamo che consideriamo solo polino◮ mi su Q, R e C (Notazione 9.6). ◮ Rispettivamente negli Esempi 9.8-5, 9.11◮ ◮ 5, 9.15-5 e 9.22-5.

Campo Addizione

⊕: K × K → K

e una detta moltiplicazione

Moltiplicazione

⊙ : K × K → K,

che soddisfano le seguenti proprietà: (K1) l’insieme K dotato dell’operazione di addizione ⊕ è un gruppo abeliano, ossia a) per ogni λ, µ, ν ∈ K si ha λ ⊕ (µ ⊕ ν) = (λ ⊕ µ) ⊕ ν (proprietà associativa per l’addizione), c 2014 Gennaro Amendola

Versione 1.0

Lezione 9. Operazioni, gruppi e campi

9–9

b) esiste 0 ∈ K tale che λ ⊕ 0 = 0 ⊕ λ = λ per ogni λ ∈ K (esistenza dell’elemento neutro per l’addizione), c) per ogni g ∈ K esiste ⊖g ∈ K tale che g ⊖ g = (⊖g) ⊕ g = 0 (esistenza dell’opposto), d) per ogni λ, µ ∈ K si ha λ ⊕ µ = µ ⊕ λ (proprietà commutativa per l’addizione); (K2) l’insieme K \ {0} dotato dell’operazione di moltiplicazione ⊙ è un gruppo abeliano, ossia a) per ogni λ, µ, ν ∈ K \ {0} si ha λ ⊙ (µ ⊙ ν) = (λ ⊙ µ) ⊙ ν (proprietà associativa per la moltiplicazione), b) esiste 1 ∈ K\{0} tale che λ⊙1 = 1⊙λ = λ per ogni λ ∈ K\{0} (esistenza dell’elemento neutro per la moltiplicazione), c) per ogni λ ∈ K \ {0} esiste λ−1 ∈ K \ {0} tale che λ ⊙ λ−1 = λ−1 ⊙ λ = 1 (esistenza dell’inverso), d) per ogni λ, µ ∈ K \ {0} si ha λ ⊙ µ = µ ⊙ λ (proprietà commutativa per la moltiplicazione); (K3) per ogni λ, µ, ν ∈ K si ha λ ⊙ (µ ⊕ ν) = (λ ⊙ µ) ⊕ (λ ⊙ ν) e (µ ⊕ ν) ⊙ λ = (µ ⊙ λ) ⊕ (ν ⊙ λ) (proprietà distributiva della moltiplicazione rispetto all’addizione). Osservazione 9.30. Come per i gruppi abeliani ◮, le operazioni ⊕ e ⊙ di cui è dotato il campo K fanno parte della definizione, quindi avremmo dovuto definire un campo come la terna (K, ⊕, ⊙). Non useremo la notazione (K, ⊕, ⊙) per non appesantire la notazione.

Esempio 9.31. 1. Sull’insieme {0} non abbiamo definito due operazioni, quindi non ha senso chiedere se esso è un campo rispetto all’unica operazione definita. Comunque sia, non possiamo nemmeno definire un’altra operazione in modo da farlo diventare un campo perché la proprietà (K2b) non può essere verificata ◮. 2. L’insieme dei numeri naturali N non è un campo rispetto all’addizione e alla moltiplicazione, perché la proprietà (K1) non è verificata ◮. Più precisamente, la proprietà (K1c) non è verificata. 3. L’insieme dei numeri interi Z non è un campo rispetto all’addizione e alla moltiplicazione, perché la proprietà (K2c) does not hold ◮ Al contrario, gli insiemi Q, R e C sono campi rispetto all’addizione e alla moltiplicazione, perché tutte le proprietà (K1), (K2) e (K3) sono verificate. ◮ 4. Sui vettori geometrici non abbiamo definito una moltiplicazione, quindi non ha senso chiedere se essi formano un campo rispetto all’unica operazione definita. 5. Gli insiemi dei polinomi non sono campi perché la proprietà (K2c) non è verificata. ◮ Solo I60 [x1 , x2 , . . . , xn ], which is the set I, è un campo; esso è un campo, perché stiamo considerando solo i casi I = Q, R, C.

Proposizione 9.32. Sia K un campo con le due operazioni ⊕ e ⊙. Allora, per ogni λ ∈ K si ha 0 ⊙ λ = λ ⊙ 0 = 0. c 2014 Gennaro Amendola

Versione 1.0

◮ Osservazione 9.27.

◮ Non c’è nessun elemento in K \ {0}.

◮ Non è un gruppo abeliano all’addizione (Esempio 9.28-2).

rispetto

◮ Esempio 9.15-3.

◮ Si veda l’Esempio 9.28-3 per le proprietà (K1) and (K2), e l’Esempio 9.24-3 per la proprietà (K3).

◮ Esempio 9.15-5.

Lezione 9. Operazioni, gruppi e campi

9–10

Dimostrazione. Dimostriamo solo la prima delle due uguaglianze, 0⊙λ = 0 e λ ⊙ 0 = 0: la seconda è analoga e la lasciamo al lettore. Utilizzeremo le proprietà della definizione di campo: sopra i segni di uguaglianza abbiamo indicato quale proprietà abbiamo utilizzato. Abbiamo (K1b)

(K3)

0 ⊙ λ = (0 ⊕ 0) ⊙ λ = (0 ⊙ λ) ⊕ (0 ⊙ λ);

per la proprietà di cancellazione dell’addizione ⊕ ◮ otteniamo 0 = 0 ⊙ λ.

Qui dobbiamo dimostrare entrambe le uguaglianze. Non possiamo infatti applicare l’Osservazione 9.25-1, perché sappiamo solo che l’operazione ⊙ gode della proprietà commutativa solo sull’insieme K \ {0}, per la proprietà (K2d), ma non sappiamo se gode della proprietà commutativa su tutto l’insieme K (un fatto vero, ma che dimostreremo nell’osservazione sotto). ◮ Osservazione 9.17.

Notazione 9.33. Useremo spesso la notazione usata nella dimostra(P)

zione precedente. Con il simbolo = indicheremo che è stata usata la proprietà (P): la proprietà sarà stata in precedenza definita e dimostrata per l’insieme che stiamo considerando. Osservazione 9.34. Le proprietà (K2a), (K2b) e (K2d) sono verificate anche per 0, ossia: (K2) a) per ogni λ, µ, ν ∈ K si ha λ ⊙ (µ ⊙ ν) = (λ ⊙ µ) ⊙ ν (proprietà associativa per la moltiplicazione), b) esiste 1 ∈ K \ {0} tale che λ ⊙ 1 = 1 ⊙ λ = λ per ogni λ ∈ K (esistenza dell’elemento neutro per la moltiplicazione), d) per ogni λ, µ ∈ K si ha λ ⊙ µ = µ ⊙ λ (proprietà commutativa per la moltiplicazione). Infatti, se tutti gli elementi λ, µ, ν ∈ K sono diversi da 0, le proprietà sono verificate per definizione ◮; se invece anche uno solo degli elementi λ, µ, ν ∈ K è 0, tutti i prodotti sono 0 ◮. La proprietà (K2c) invece non è verificata per 0, ossia 0 non ha un inverso in K. Se per assurdo esistesse 0−1 tale che 0 ⊙ 0−1 = 1, avremmo anche 0 ⊙ 0−1 = 0 ◮ e quindi avremmo 1 = 0: questa è una contraddizione ◮. Questo implica che K dotato dell’operazione di moltiplicazione ⊙ non è un gruppo abeliano.

Qui abbiamo K, nella definizione di campo abbiamo K \ {0}.

◮ Definizione 9.29. ◮ Proposizione 9.32.

◮ Proposizione 9.32. ◮ Per la proprietà (K2b), 1 non può essere uguale a 0.

Notazione 9.35. Per l’osservazione precedente, quando ci riferiremo alle proprietà (K2a), (K2b) e (K2d), ci riferiremo a quelle generali, valide anche per 0.

Proposizione 9.36 (Legge di annullamento del prodotto). Sia K un campo con le due operazioni ⊕ e ⊙. Siano λ, µ ∈ K elementi tali che λ ⊙ µ = 0, allora si ha λ = 0 o µ = 0 (o entrambe le cose). Dimostrazione. Se λ = 0, abbiamo finito: la tesi è dimostrata qualunque valore assume µ. Se invece λ 6= 0, esiste l’inverso λ−1 di λ ◮, quindi moltiplicando entrambi i membri dell’equazione λ ⊙ µ = 0 per λ−1 otteniamo µ = λ−1 ⊙ 0. Visto che λ−1 ⊙ 0 = 0 ◮, otteniamo µ = 0. La dimostrazione è completa. Notazione 9.37. Analogamente a quanto succede per l’addizione e per la moltiplicazione sui numeri (e per semplicità), quando abbiamo un insieme dotato di un’addizione e di una moltiplicazione, stipuliamo che la moltiplicazione è fatta prima dell’addizione. La scrittura λ⊙µ⊕ν quindi non è ambigua: essa significa (λ⊙µ)⊕ν. Nel caso in cui l’addizione debba

c 2014 Gennaro Amendola

Versione 1.0

Legge di annullamento del prodotto

◮ Proprietà (K2c). ◮ Proposizione 9.32.

Lezione 9. Operazioni, gruppi e campi

9–11

essere fatta prima, usiamo le parentesi opportunamente: ad esempio, λ ⊙ (µ ⊕ ν). Se non è necessario, eviteremo di scrivere il simbolo della moltiplicazione “⊙”, quindi la scrittura λµ significa λ ⊙ µ. Inoltre, indichiamo il n volte z }| { prodotto λλ · · · λ con λn per n > 1. If there exists the inverse of λ, we n times }| { z indicate the product λ−1 λ−1 · · · λ−1 by λ−n for n > 1, e, per coerenza, poniamo λ0 := 1.

È normale non usare il simbolo della moltiplicazione: ad esempio, per i numeri scriviamo 2(3+1) per indicare 2·(3+1), oppure scriviamo 2x, con x variabile, per indicare 2 · x. Comunque sia, se abbiamo due numeri, esso deve essere usato: ad esempio, se nella moltiplicazione 2 · 3 lo omettiamo, otteniamo 23 che ha un significato diverso.

Osservazione 9.38. La notazione λn è coerente con la notazione λ−1 per l’inverso e valgono tutte le proprietà dell’elevamento a potenza sui numeri, ossia λ1 = λ,

λ1 λ−1 = λ0 = 1,

λn λm = λn+m ,

(λn )m = λnm ,

∀n, m ∈ Z.

Notazione 9.39. D’ora in poi useremo sempre gruppi abeliani in cui l’operazione è una addizione indicata con il simbolo “+” o una moltiplicazione indicata con il simbolo “·”, e campi la cui addizione è indicata con il simbolo “+” e la cui moltiplicazione è indicata con il simbolo “·”. Quindi, a meno che non sia necessario per la comprensione, non specificheremo le operazioni e useremo il simbolo “+” per l’addizione e il simbolo “·” per la moltiplicazione. Ad esempio, parleremo di “un campo K” e non di “un campo K dotato di addizione + e moltiplicazione ·”, dando per scontato che le operazioni sono l’addizione + e la moltiplicazione ·.

Osservazione 9.40. Considereremo solo campi con infiniti elementi. Quasi tutto ciò che enunceremo vale anche per campi con un numero finito di elementi, ma non ci interessiamo di questi campi. Quindi, d’ora in poi, tutti i campi sono supposti infiniti. ◮

c 2014 Gennaro Amendola

Versione 1.0

Campi finiti/infiniti

◮ Per semplicità, il lettore può pensare solamente ai campi Q, R e C, ma deve sapere che tutto funziona con qualsiasi campo infinito.

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 9/S1 OPERAZIONI, GRUPPI E CAMPI 1

Sessione di Studio 9.1

Operazioni, gruppi e campi

Lezione 9. Operazioni, gruppi e campi

9–12

Sessione di Studio 9.1 Esercizio 9.1. Dimostra la proprietà associativa della moltiplicazione su C. Soluzione. Per ogni z1 , z2 , z3 ∈ C vogliamo dimostrare che z1 · (z2 · z3 ) = (z1 · z2 ) · z3 .

Scriviamo zi = ai + ibi per i = 1, 2, 3, quindi abbiamo   z1 · (z2 · z3 ) = (a1 + ib1 ) · (a2 + ib2 ) · (a3 + ib3 ) = (a1 + ib1 ) · (a2 a3 − b2 b3 ) + i (a2 b3 + b2 a3 ) = = (a1 a2 a3 − a1 b2 b3 − b1 a2 b3 − b1 b2 a3 ) + i (a1 a2 b3 + a1 b2 a3 + b1 a2 a3 − b1 b2 b3 )

e   (z1 · z2 ) · z3 = (a1 + ib1 ) · (a2 + ib2 ) · (a3 + ib3 ) = (a1 a2 − b1 b2 ) + i (a1 b2 + b1 a2 ) · (a3 + ib3 ) = = (a1 a2 a3 − b1 b2 a3 − a1 b2 b3 − b1 a2 b3 ) + i (a1 a2 b3 − b1 b2 b3 + a1 b2 a3 + b1 a2 a3 ) .

I due risultati sono uguali, quindi la dimostrazione è completa.

Esercizio 9.2. Mostra un esempio della proprietà associativa dell’addizione su R[x]. Soluzione. Abbiamo        x3 − 3x + x2 − 1 +(2x−1) = x3 − 3x + x2 − 1 +(2x−1),

infatti abbiamo       x3 − 3x + x2 − 1 +(2x−1) = x3 − 3x + x2 + 2x − 2 = x3 +x2 −x−2

e 

   x3 − 3x + x2 − 1 +(2x−1) = x3 + x2 − 3x − 1 +(2x−1) = x3 +x2 −x−2.

Esercizio 9.3. Dimostra la proprietà commutativa dell’addizione su C. Soluzione. Per ogni z1 , z2 ∈ C vogliamo dimostrare che z1 +z2 = z2 +z1 . Scriviamo zi = ai + ibi per i = 1, 2, quindi abbiamo z1 + z2 = (a1 + ib1 ) + (a2 + ib2 ) = (a1 + a2 ) + i (b1 + b2 ) e z2 + z1 = (a2 + ib2 ) + (a1 + ib1 ) = (a2 + a1 ) + i (b2 + b1 ) . I due risultati sono uguali, quindi la dimostrazione è completa. Esercizio 9.4. Mostra un esempio della proprietà commutativa della moltiplicazione su R[x, y].     Soluzione. Abbiamo x3 + y · xy + y 2 = xy + y 2 · x3 + y , infatti abbiamo   x3 + y · xy + y 2 = x4 y + x3 y 2 + xy 2 + y 3

e

  xy + y 2 · x3 + y = x4 y + xy 2 + x3 y 2 + y 3 . c 2014 Gennaro Amendola

Versione 1.0

Lezione 9. Operazioni, gruppi e campi

9–13

Esercizio 9.5. (R[x] \ {0}, +) è un gruppo abeliano? (Q \ {1}, +, ·) è un campo? Soluzione. (R[x] \ {0}, +) non è un gruppo abeliano, perché l’addizione non ha l’elemento neutro ◮, quindi la proprietà (G2) non è soddisfatta. (Q \ {1}, +, ·) non è un campo, perché la moltiplicazione non ha l’elemento neutro ◮, quindi la proprietà (K2b) non è soddisfatta.

c 2014 Gennaro Amendola

Versione 1.0

◮ L’elemento neutro per l’addizione in R[x] è il polinomio nullo 0. ◮ L’elemento neutro per la moltiplicazione in Q è 1.

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 9/S2 OPERAZIONI, GRUPPI E CAMPI 1

Sessione di Studio 9.2

Operazioni, gruppi e campi

Lezione 9. Operazioni, gruppi e campi

9–14

Sessione di Studio 9.2 Esercizio 9.6. Dimostra la proprietà associativa dell’addizione su C. Esercizio 9.7. Mostra un esempio della proprietà associativa della moltiplicazione su R[x]. Esercizio 9.8. Dimostra la proprietà commutativa della moltiplicazione su C. Esercizio 9.9. Mostra un esempio della proprietà commutativa dell’addizione su R[x, y, z]. Esercizio 9.10. Dimostra la proprietà distributiva della moltiplicazione rispetto all’addizione su C. Esercizio 9.11. Mostra un esempio della proprietà distributiva della moltiplicazione rispetto all’addizione su R[t]. Esercizio 9.12. Quali dei seguenti sono gruppi abeliani? (N, +), (N \ {0}, ·), (Z, +), (Z \ {0}, ·), (Q, +), (Q, ·), (R, +), (R \ {0}, ·), (C \ {0}, +), (C, ·), (R[x] , +), (R[x] , ·), (R6m [x] , +), (R6m [x] \ {0}, ·). Quali dei seguenti sono campi? (N, +, ·), (Z, +, ·), (Q, +, ·), (R, +, ·), (C, +, ·), (R[x] , +, ·), (R6m [x] , +, ·).

c 2014 Gennaro Amendola

Versione 1.0

Lezione 9. Operazioni, gruppi e campi

9–15

Risultato dell’Esercizio 9.6. Calcola esplicitamente e

z1 + (z2 + z3 )

(z1 + z2 ) + z3

per ogni z1 , z2 , z3 ∈ C (scrivendo zi = ai + ibi per i = 1, 2, 3), e dimostra che essi sono uguali. ◮ Risultato dell’Esercizio 9.7. Per esempio, calcola esplicitamente      x + x2 + x + (x + 3) e x + x2 + x + (x + 3),

◮ Vedi Esercizio 9.1.

Questo esercizio non ha un’unica soluzione, quindi il lettore può trovare una soluzione diversa.

dimostrando che essi sono uguali.

Risultato dell’Esercizio 9.8. Calcola esplicitamente z1 · z2 e z2 · z1 per ogni z1 , z2 ∈ C (scrivendo zi = ai + ibi per i = 1, 2), e dimostra che essi sono uguali. ◮ Risultato dell’Esercizio 9.9. Per esempio, calcola esplicitamente     x3 + yz − y + z + x2 − yz + y e x2 − yz + y + x3 + yz − y + z ,

◮ Vedi Esercizio 9.3.

Questo esercizio non ha un’unica soluzione, quindi il lettore può trovare una soluzione diversa.

dimostrando che essi sono uguali.

Risultato dell’Esercizio 9.10. Calcola esplicitamente (z1 + z2 ) · z3

e

◮ Usa la proprietà commutativa per evitare la dimostrazione dell’altra uguaglianza

(z1 · z3 ) + (z2 · z3 )

per ogni z1 , z2 ∈ C (scrivendo zi = ai + ibi per i = 1, 2), e dimostra che essi sono uguali. ◮ Risultato dell’Esercizio 9.11. Per esempio, calcola esplicitamente        t · t2 + t + (t + 3) e t · t2 + t + t · (t + 3) ,

z1 · (z2 + z3 ) = (z1 · z2 ) + (z1 · z3 ) (Osservazione 9.25-2). Questo esercizio non ha un’unica soluzione, quindi il lettore può trovare una soluzione diversa.

dimostrando che essi sono uguali.

Risultato dell’Esercizio 9.12. Gruppi abeliani: (N, +) no, (N \ {0}, ·) no, (Z, +) sì, (Z \ {0}, ·) no, (Q, +) sì, (Q, ·) no, (R, +) sì, (R \ {0}, ·) sì, (C \ {0}, +) no, (C, ·) no, (R[x] , +) sì, (R[x] , ·) no, (R6m [x] , +) sì, (R6m [x] \ {0}, ·) no. Campi: (N, +, ·) no, (Z, +, ·) no, (Q, +, ·) sì, (R, +, ·) sì, (C, +, ·) sì, (R[x] , +, ·) no, (R6m [x] , +, ·) sì per m = 0 ◮ e no per m > 0.

c 2014 Gennaro Amendola

Versione 1.0

◮ R60 [x] è essenzialmente R.

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 9/S3 OPERAZIONI, GRUPPI E CAMPI 1

Sessione di Studio 9.3

Operazioni, gruppi e campi

Lezione 9. Operazioni, gruppi e campi

9–16

Sessione di Studio 9.3 Letture supplementari possono essere le seguenti: • http://it.wikipedia.org/wiki/Operazione_binaria • http://it.wikipedia.org/wiki/Associativit%E0 • http://it.wikipedia.org/wiki/Elemento_neutro

• http://it.wikipedia.org/wiki/Opposto_(matematica) • http://it.wikipedia.org/wiki/Elemento_inverso • http://it.wikipedia.org/wiki/Commutativit%E0

• http://it.wikipedia.org/wiki/Distributivit%E0 • http://it.wikipedia.org/wiki/Gruppo_abeliano

• http://it.wikipedia.org/wiki/Campo_(matematica)

• http://it.wikipedia.org/wiki/Legge_di_annullamento_del_prodotto

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 9/S3 Operazioni, gruppi e campi 3

Sessione di Studio 9.3 Quiz

Operazioni, gruppi e campi

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 9/S3 Operazioni, gruppi e campi 3

• Risolvere il seguente quiz a risposta multipla in cui per ogni domanda una sola risposta è giusta. • Rivedere le risposte del quiz.

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 10 SPAZI VETTORIALI 1

Lezione 10 Spazi vettoriali

Lezione 10

Spazi vettoriali In questa lezione introdurremo gli spazi vettoriali. Essi sono l’essenza del corso. Ogni altro oggetto sarà basato su essi. Gli spazi vettoriali possono anche essere pensati come una generalizzazione degli insiemi dei vettori geometrici, ma includono come esempi molti altri oggetti. Gli spazi vettoriali danno anche un linguaggio unificato per occuparsi di molti problemi.

10.1

Spazi vettoriali

Abbiamo visto nella Lezione 8 che sui vettori geometrici può essere definita un’addizione e una moltiplicazione per scalare. La prima è un’operazione ◮, che rende gli insiemi dei vettori geometrici V 2E e V 3E gruppi ◮. Il secondo definisce funzioni abeliani ◮ · : R × V 2E → V 2E

e

· : R × V 3E → V 3E .

La somma e la moltiplicazione per scalare sono legate tra loro: analizziamo V 3E . Per V 2E la dimostrazione è analoga e la lasciamo al ◮ lettore. ◮ ◮ Osservazione 10.1. • Per ogni v ∈ V 3E e λ, µ ∈ R abbiamo λ · (µ · v) = (λ · µ) · v (compatibilità della moltiplicazione per scalare e della moltiplicazione di R). Per dimostrare ciò, fissiamo un sistema di riferimento cartesiano (O; x1 , x2 , x3 ) e usiamo l’identificazione dei vettori geometrici V 3E con le terne di numeri reali ◮. Se v ha coordinate (v1 , v2 , v3 ), allora ◮ λ · (µ · v) ha coordinate ◮   λ(µv1 ), λ(µv2 ), λ(µv3 ) = (λµ)v1 , (λµ)v2 , (λµ)v3 , ossia le stesse coordinate di (λ · µ) · v. 3 E

• Per ogni v ∈ V e λ, µ ∈ R abbiamo (λ + µ) · v = (λ · v) + (µ · v) (proprietà distributiva della moltiplicazione per scalare rispetto all’addizione di R). Per dimostrare ciò, fissiamo un sistema di riferimento cartesiano (O; x1 , x2 , x3 ). Se v ha coordinate (v1 , v2 , v3 ), allora (λ + µ) · v ha coordinate ◮

c 2014 Gennaro Amendola

Versione 1.0

◮ Esempio 9.4-4. ◮ ◮ Esempio 9.28-4.

Per la definizione di operazione che abbiamo dato (Definizione 9.1), la moltiplicazione per scalare non è un’operazione sui vettori geometrici. La moltiplicazione per scalare associa a una coppia formata da un numero reale e da un vettore geometrico un vettore geometrico. Se fosse un’operazione su V 2E o V 3E , assocerebbe a una coppia di vettori geometrici un vettore geometrico. ◮ ◮ ◮ Esercizio 10.11.

Questa proprietà potrebbe essere anche dimostrata con la definizione, stando attenti ad analizzare tutti i possibili casi. Tuttavia, con la dimostrazione algebrica che diamo ora, possiamo notare quanto sia utile l’identificazione dei vettori geometrici con le terne di numeri reali: la dimostrazione è molto semplice e corta. ◮ Lezione 8. ◮ ◮ Abbiamo usato la proprietà associativa della moltiplicazione in R (Esempio 9.8-3).

Questa proprietà potrebbe essere anche dimostrata con la definizione, ma ci sono molti casi da analizzare. Con l’identificazione dei vettori geometrici con le terne di numeri reali la dimostrazione è molto semplice e corta. ◮ Abbiamo usato la proprietà distributiva della moltiplicazione rispetto all’addizione in R (Esempio 9.24-3).

Lezione 10. Spazi vettoriali

10–2

 (λ + µ)v1 , (λ + µ)v2 , (λ + µ)v3 =  = (λv1 ) + (µv1 ), (λv2 ) + (µv2 ), (λv3 ) + (µv3 ) ,

ossia le stesse coordinate di (λ · v) + (µ · v).

• Per ogni v, w ∈ V 3E e λ ∈ R abbiamo λ · (v + w) = (λ · v) + (λ · w) (proprietà distributiva della moltiplicazione per scalare rispetto all’addizione di vettori). Per dimostrare ciò, fissiamo un sistema di riferimento cartesiano (O; x1 , x2 , x3 ). Se v ha coordinate (v1 , v2 , v3 ) e w ha coordinate (w1 , w2 , w3 ), allora λ · (v + w) ha coordinate ◮  λ(v1 + w1 ), λ(v2 + w2 ), λ(v3 + w3 ) =  = (λv1 ) + (λw1 ), (λv2 ) + (λw2 ), (λv3 ) + (λw3 ) , ossia le stesse coordinate di (λ · v) + (λ · w).

Inoltre, la moltiplicazione per scalare gode di una semplice proprietà: analizziamo V 3E . Per V 2E la dimostrazione è analoga e la lasciamo al lettore. ◮ Osservazione 10.2. Per ogni v ∈ V 3E abbiamo 1 · v = v. Infatti, applicando la definizione di moltiplicazione per scalare ◮, il vettore geometrico 1 · v ha la stessa direzione e lo stesso verso di v; inoltre, anche il modulo è uguale a quello di v (perché ottenuto moltiplicandolo per 1). Quindi abbiamo 1 · v = v.

Questa proprietà potrebbe anche essere dimostrata con le omotetie, ma di nuovo con l’identificazione dei vettori geometrici con le terne di numeri reali la dimostrazione è molto semplice e corta. ◮ Abbiamo usato la proprietà distributiva della moltiplicazione rispetto all’addizione in R (Esempio 9.24-3).

◮ Esercizio 10.11.

◮ Lezione 8.

L’addizione, la moltiplicazione per scalare e le proprietà che abbiamo visto sopra sono abbastanza comuni, quindi diamo la seguente definizione.

Definizione 10.3. Uno spazio vettoriale su un campo K ◮ è un insieme V dotato di due operazioni, una detta addizione +: V × V → V

e una detta moltiplicazione per scalare ·: K × V → V ,

Addizione

che soddisfano le seguenti proprietà: (SV1) l’insieme V dotato dell’operazione di addizione + è un gruppo abeliano, ossia a) per ogni v, w, u ∈ V si ha v + (w + u) = (v + w) + u (proprietà associativa per l’addizione), b) esiste 0 ∈ V tale che 0 + v = v + 0 = v for each v ∈ V (esistenza dell’elemento neutro per l’addizione), c) per ogni v ∈ V esiste (−v) ∈ V tale che v + (−v) = (−v) + v = 0 (esistenza dell’opposto), d) per ogni v, w ∈ V si ha v + w = w + v (proprietà commutativa per l’addizione); (SV2) per ogni v ∈ V and λ, µ ∈ K si ha λ · (µ · v) = (λ · µ) · v (compatibilità della moltiplicazione per scalare e della moltiplicazione di K);

c 2014 Gennaro Amendola

Spazio vettoriale ◮ Ricordiamo che stiamo considerando solo campi con infiniti elementi (Osservazione 9.40). Per semplicità, il lettore può pensare solamente ai campi Q, R e C, ma deve sapere che tutto funziona con qualsiasi campo infinito.

Versione 1.0

Moltiplicazione per scalare

Lezione 10. Spazi vettoriali

10–3

(SV3) per ogni v ∈ V and λ, µ ∈ K si ha (λ + µ) · v = (λ · v) + (µ · v) (proprietà distributiva della moltiplicazione per scalare rispetto all’addizione di K); (SV4) per ogni v, w ∈ V and λ ∈ K si ha λ · (v + w) = (λ · v) + (λ · w) (proprietà distributiva della moltiplicazione per scalare rispetto all’addizione di V ); (SV5) per ogni v ∈ V si ha 1 · v = v. Gli elementi di V sono detti vettori, e quelli di K sono detti scalari. Osservazione 10.4. Per non appesantire la trattazione, abbiamo usato lo stesso simbolo per l’operazione di addizione dello spazio vettoriale e per l’operazione di addizione del campo K, come si può vedere nella proprietà (SV3). Infatti, λ, µ e λ + µ sono elementi del campo K, mentre λ · v, µ · v e (λ · v) + (µ · v) sono elementi dello spazio vettoriale V . Al contrario, nella proprietà (SV4) entrambe le addizioni sono fatte nello spazio vettoriale V . Analogamente, abbiamo usato il simbolo “·”, sia per la moltiplicazione di K che per la moltiplicazione per scalare. Nella proprietà (SV2), notiamo che il simbolo “·” tra λ e µ nel membro destro dell’uguaglianza rappresenta la moltiplicazione di K, mentre gli altri simboli “·” rappresentano la moltiplicazione per scalare. Osservazione 10.5. Per la definizione di operazione che abbiamo dato, ◮ la moltiplicazione per scalare non è un’operazione su V . La moltiplicazione per scalare associa a una coppia formata da uno scalare e da un vettore un vettore. Se fosse un’operazione su V , assocerebbe a una coppia di vettori un vettore. Tuttavia, per semplicità, ci riferiremo alla moltiplicazione per scalare come a una operazione. Non ha senso parlare di proprietà commutativa della moltiplicazione per scalare, perché non ha senso fare la moltiplicazione per scalare v · λ con v ∈ V e λ ∈ K: lo scalare λ deve stare sempre a sinistra del vettore v. Questo spiega perché abbiamo distinto due proprietà distributive. ◮

Vettore Scalare

◮ Definizione 9.1.

◮ Proprietà (SV3) e (SV4).

Esempio 10.6. 1. L’insieme dei vettori geometrici V 3E (e anche V 2E ) con l’addizione e la moltiplicazione per scalare definiti nella Lezione 8 è uno spazio vettoriale sul campo R. Infatti, abbiamo già visto che • la proprietà (SV1) è soddisfatta, infatti l’insieme dei vettori geometrici V 3E con l’addizione è un gruppo abeliano; ◮ • le proprietà (SV2), (SV3) e (SV4) sono soddisfatte; ◮ • la proprietà (SV5) is satisfied. ◮

Per V

2 E

la dimostrazione è analoga e la lasciamo al lettore. ◮

2. Qualsiasi sia il campo K, l’insieme {0} dotato dell’operazione di addizione definita nell’Esempio 9.4 e dell’unica moltiplicazione per scalare che possiamo definire, · : K × {0} → {0}

dato da λ·0 := 0 per ogni λ ∈ K, è uno spazio vettoriale sul campo K. Infatti, abbiamo già visto che la proprietà (SV1) è soddisfatta, c 2014 Gennaro Amendola

Versione 1.0

◮ Esempio 9.28-4. ◮ Osservazione 10.1. ◮ Osservazione 10.2. ◮ Esercizio 10.11.

Abbiamo fatto un piccolo cambio di notazione rispetto all’Esempio 9.4 (0 invece di 0) perché ora stiamo considerando l’elemento di {0} come un vettore, quindi lo scriveremo in grassetto.

Lezione 10. Spazi vettoriali

10–4

infatti l’insieme {0} è un gruppo abeliano. ◮ Inoltre, le proprietà (SV2), (SV3), (SV4) e (SV5) sono banalmente soddisfatte. ◮ 3. Qualsiasi sia il campo K (dotato di operazioni di addizione e di moltiplicazione), l’insieme K dotato della propria addizione e della moltiplicazione per scalare indotta dalla propria moltiplicazione, · : K × K ∋ (λ, x) 7−→ λ · x ∈ K,

è uno spazio vettoriale sul campo K. ◮ Infatti, • la proprietà (SV1) prietà (K1), • la proprietà (SV2) prietà (K2a), • la proprietà (SV3) prietà (K3), • la proprietà (SV4) prietà (K3), • la proprietà (SV5) prietà (K2b).

è soddisfatta perché è soddisfatta la proè soddisfatta perché è soddisfatta la pro-

◮ Esempio 9.28-1. ◮ Visto che c’è solo l’elemento 0 in {0}, tutte le uguaglianze si riducono a 0 = 0 e quindi sono soddisfatte.

Nella definizione della moltiplicazione per scalare stiamo pensando il primo K come campo (abbiamo usato λ per indicare un suo elemento generico), mentre stiamo pensando il secondo e il terzo K come spazi vettoriali (abbiamo usato x per indicare un suo elemento generico). ◮ K is a field, therefore it satisfies all the properties of Definition 9.29.

è soddisfatta perché è soddisfatta la proè soddisfatta perché è soddisfatta la proè soddisfatta perché è soddisfatta la pro-

4. Dato un campo K, l’insieme K[x1 , x2 , . . . , xn ] dei polinomi con coefficienti in K, con l’addizione definita nella Definizione 5.25 e la moltiplicazione per scalare definita da · : K × K[x1 , x2 , . . . , xn ] ∋ (λ, p) → λ · p ∈ K[x1 , x2 , . . . , xn ]

con λ · p definito come il polinomio con i monomi di p ciascuno moltiplicato per λ ◮, è uno spazio vettoriale sul campo K. Non daremo la dimostrazione di questo fatto, ma mostreremo solo alcuni esempi delle proprietà negli Esercizi 10.12.

◮ Per esempio, = 1, abbiamo λ ·  se nPn Pn i per ogni i := i=0 λai x i=0 ai x λ, a0 , . . . , an ∈ K.

5. L’insieme dei numeri complessi C con l’usuale addizione di numeri complessi e la moltiplicazione per scalare definita da · : R × C ∋ (λ, z) → λ · z ∈ C

dove la moltiplicazione λ · z è l’usuale moltiplicazione di numeri complessi (con il primo che è reale) ◮ è uno spazio vettoriale sul ◮ campo R. Lasciamo la dimostrazione come esercizio. ◮ 6. Sia V uno spazio vettoriale su un campo K, e sia I un qualsiasi insieme. Consideriamo l’insieme Funz (I, V ) = {f : I → V }. Definiamo una addizione + : Funz (I, V ) × Funz (I, V ) ∋ (f, g) → f + g ∈ Funz (I, V )

data da (f + g)(x) = f (x) + g(x) per ogni x ∈ I, ◮ e una moltiplicazione per scalare

· : K × Funz (I, V ) ∋ (λ, f ) → λ · f ∈ Funz (I, V )  ◮ L’insieme Funz (I, V ) data da (λ·f )(x) = λ· f (x) per ogni x ∈ I. ◮ con l’addizione e la moltiplicazione per scalare definite sopra è uno spazio vettoriale sul campo K. Lasciamo la dimostrazione come ◮ esercizio. ◮ ◮ c 2014 Gennaro Amendola

Versione 1.0

◮ Scrivendo z = a+ib, abbiamo λ·(a+ib) := λa + iλb. ◮ ◮ Esercizio 10.13. ◮ Il “+” nel membro sinistro dell’uguaglianza è l’operazione che vogliamo definire, mentre il “+” nel membro destro è l’addizione di V (che è data), infatti f (x) e g(x) sono elementi di V (perché f : I → V ). Quindi, la funzione f + g è la funzione che manda un elemento x nella somma di f (x) e g(x): ad esempio, se f (x) = sen(x) e g(x) = x2 , abbiamo (f + g)(x) = sen(x) + x2 . ◮ ◮ Il “·” nel membro sinistro dell’uguaglianza è la moltiplicazione per scalare che vogliamo definire, mentre il “·” nel membro destro è la moltiplicazione per scalare di V (che è data), infatti f (x) è un elemento di V (perché f : I → V ). Quindi, la funzione λ · f è la funzione che manda un elemento x nel prodotto per scalare di f (x) e λ: ad esempio, se f (x) = sen(x) e λ = 3, abbiamo (λf )(x) = 3 sen(x). ◮ ◮ ◮ Esercizio 10.1.

Lezione 10. Spazi vettoriali

10–5

Dalle proprietà della definizione possiamo dedurre che altre proprietà valgono in qualsiasi spazio vettoriale. Proposizione 10.7. Sia V uno spazio vettoriale su un campo K con l’addizione + e la moltiplicazione per scalare ·. Allora, le seguenti proprietà sono soddisfatte: (SV6) per ogni v ∈ V si ha 0 · v = 0; (SV7) per ogni v ∈ V si ha (−1) · v = (−v); (SV8) per ogni λ ∈ K si ha λ · 0 = 0;

(SV9) per ogni λ ∈ K \ {0}, se v ∈ V e λ · v = 0 allora si ha v = 0. Dimostrazione. (∗∗) Dimostreremo queste quattro proprietà utilizzando le proprietà della definizione di spazio vettoriale. (SV6) Notiamo che, per ogni v ∈ V , abbiamo ◮ (K1b)

(SV3)

0 · v = (0 + 0) · v = (0 · v) + (0 · v);

◮ otteniamo 0 = per la proprietà di cancellazione dell’addizione ◮ 0 · v.

◮ (SV7) Notiamo che, per ogni v ∈ V , abbiamo ◮ ◮

(SV5)

(SV3)

v + (−1) · v = 1 · v + (−1) · v = (K1c)

(SV6)

= 0 · v = 0,

 (K1c) 1 + (−1) · v =

e, per la proprietà (SV1d), anche (−1)·v+v = 0; quindi, abbiamo che (−1) · v è l’opposto di v, ossia (−v). ◮

Come detto nella Notazione 9.33, sopra i segni di uguaglianza indichiamo quale proprietà stiamo utilizzando. ◮ Notiamo che la prima uguaglianza non usa nessuna proprietà dello spazio vettoriale V , bensì usa l’esistenza dell’elemento neutro dell’addizione in K. ◮ ◮ Osservazione 9.17. ◮ ◮ ◮ Notiamo che la proprietà (SV6) non è una delle proprietà della definizione di spazio vettoriale, ma la possiamo usare perché l’abbiamo appena dimostrata.

◮ Per la Proposizione 9.18, l’opposto è unico.

(SV8) Notiamo che, per ogni λ ∈ K, abbiamo λ·0

(SV1b)

=

(SV4)

λ · (0 + 0) = (λ · 0) + (λ · 0);

per la proprietà di cancellazione dell’addizione abbiamo 0 = λ · 0.

(SV9) Notiamo che, per ogni λ ∈ K \ {0}, esiste λ−1 ◮; quindi abbiamo la seguente catena di uguaglianze:  (SV5) (K2c) (SV2) v = 1 · v = λ−1 · λ · v = λ−1 · (λ · v) =

◮ Perché K è un campo.

(SV8)

= λ−1 · 0 = 0.

Osservazione 10.8. Come per i gruppi abeliani, tutte le proprietà che abbiamo visto (sia quelle della Definizione 10.3 che quelle dimostrate nella Proposizione 10.7) ci permettono di togliere molte parentesi che non sono necessarie. Ad esempio, • la proprietà (SV1a) ci permette di scrivere v + w + u senza ambiguità, • la proprietà (SV2) ci permette di scrivere λ · µ · v senza ambiguità,

• le proprietà (SV2) e (SV7) ci permettono di scrivere (−v) senza le parentesi ◮ e di scrivere w − v senza ambiguità.

c 2014 Gennaro Amendola

Versione 1.0

◮ A meno di non avere un simbolo di una operazione a sinistra, nel qual caso dobbiamo lasciare le parentesi: ad esempio, w + (−v) oppure λ · (−v).

Lezione 10. Spazi vettoriali

10–6

Notazione 10.9. Come abbiamo fatto per i campi ◮ stipuliamo che la moltiplicazione per scalare è fatta prima dell’addizione. La scrittura λ · v+µ·w quindi non è ambigua: essa significa (λ·v)+(µ·w). Nel caso in cui la somma debba essere fatta prima, usiamo le parentesi  opportunamente: ad esempio, λ · (v + µ · w) significa λ · v + (µ · w) . Inoltre, se non è necessario, eviteremo di scrivere il simbolo della moltiplicazione per scalare “·”, quindi la scrittura λv significa λ · v. Il vettore λv è detto multiplo del vettore v. Osservazione 10.10. Come per i campi ◮, l’addizione + e la moltiplicazione per scalare · di cui è dotato lo spazio vettoriale V fanno parte della definizione, quindi avremmo dovuto definire uno spazio vettoriale su un campo K come la terna (V , +, ·). Non useremo la notazione (V , +, ·) per non appesantire la notazione.

◮ Notazione 9.37.

Multiplo di un vettore ◮ Osservazione 9.30.

Notazione 10.11. D’ora in poi, a meno che non sia necessario per la comprensione, non specificheremo le operazioni e useremo il simbolo “+” per l’addizione e il simbolo “·” per la moltiplicazione per scalare. Ad esempio, parleremo di “uno spazio vettoriale V su un campo K” e non di “uno spazio vettoriale V dotato di addizione + e moltiplicazione per scalare · su un campo K”, dando per scontato che le operazioni sono l’addizione + e la moltiplicazione per scalare ·.

Visto che per la maggior parte degli spazi vettoriali che vedremo il campo degli scalari K è il campo dei numeri reali R, diamo la seguente definizione. Definizione 10.12. Uno spazio vettoriale V sul campo R è detto reale.

Notazione 10.13. Se non abbiamo restrizioni sul campo K, a meno che non sia necessario per la comprensione, non menzioneremo il campo K. Ad esempio, parleremo di “uno spazio vettoriale V ” e non di “uno spazio vettoriale V su un campo K”, dando per scontato che c’è un campo K su cui V è uno spazio vettoriale. Inoltre, se il campo non è menzionato in un esempio o in un esercizio, il campo è supposto essere R o C, a seconda che rispettivamente compaiano solo numeri reali oppure compaiano anche numeri complessi (e quindi i).

10.2

Spazio vettoriale reale

Ogni volta che abbiamo uno spazio vettoriale, esso è sempre uno spazio vettoriale su un qualche campo.

Vettori colonna

Introdurremo ora alcuni spazi vettoriali che saranno fondamentali per il seguito. Definizione 10.14. Un vettore colonna su un campo K è una tabella del tipo   x1  x2     ..  ,  . 

Vettore colonna

xn

dove tutti gli elementi xi con i = 1, 2, . . . , n appartengono a K. L’elemento c 2014 Gennaro Amendola

Versione 1.0

Coordinate

Lezione 10. Spazi vettoriali

10–7

xi è detto i-esima coordinata del vettore colonna. L’insieme dei vettori colonna con n coordinate su un campo K è indicato con Kn .

Kn

• Alcuni esempi di vettori colonna su R sono     −2   −2   1  π  ∈ R4  0  ∈ R3 , ∈ R2 ,  −4 7 7 1

Esempio 10.15.

2

(abbiamo anche indicato l’insieme a cui appartengono).

• Alcuni esempi di vettori colonna su C sono ◮     −2  1 − i  0  ∈ C3 −2 + 3i ∈ C1 , ∈ C2 , −4i 7



 −2 ◮ Il vettore colonna  0  può essere pen7 sato come un elemento sia di R3 che di C3 , perché R ⊂ C.

(abbiamo anche indicato l’insieme a cui appartengono).

Osservazione 10.16. Un vettore colonna con una sola coordinata (caso n = 1) è praticamente un elemento di K. Un vettore colonna con due coordinate (caso n = 2) è praticamente un elemento del prodotto cartesiano K2 ◮, ma scritto in colonna. Analogamente, un vettore colonna con tre coordinate (caso n = 3) è ◮, ma scritto in praticamente un elemento del prodotto cartesiano K3 ◮ colonna.

Questo spiega perché abbiamo indicato con Kn l’insieme dei vettori colonna con n coordinate sul campo K. ◮ Lezione 2. ◮ ◮ Lezione 2.

Potremmo considerare anche i vettori riga, ma è più utile considerare i vettori colonna per alcuni motivi che vedremo. Scrivere i vettori su una riga però risulta più comodo, quindi useremo anche la seguente notazione, che sarà poi generalizzata in seguito. Notazione 10.17. Un vettore colonna sarà anche scritto su una riga, ma facendolo precedere da una piccola t in alto:   x1  x2     t  ..  = x1 x2 · · · xn .  .  xn

Vedremo nella Sezione 16.1 che questo è un caso particolare di un concetto più generale, ossia la “trasposizione di matrici”.

Definizione 10.19. Il vettore colonna con tutte le coordinate nulle è detto vettore colonna nullo ed è indicato con 0n , oppure semplicemente con 0:   0 0   0n :=  .  .  ..  0

Vettore colonna nullo

Esempio 10.18. I vettori colonna dell’Esempio 10.15 possono essere scritti su una riga come segue.   t  t t • 1 −4 , −2 0 7 , −2 π 7 12 .  t  t  t • −2 + 3i , 1 − i −4i , −2 0 7 .

c 2014 Gennaro Amendola

Versione 1.0

0n

Lezione 10. Spazi vettoriali

10–8

Osservazione 10.20. Useremo la notazione 0n solo se sarà necessario sottolineare la dimensione del vettore colonna. Altrimenti, la differenza tra un vettore colonna nullo e l’elemento neutro per l’addizione di K sarà chiara dal contesto, e quindi possiamo usare lo stesso simbolo, 0, per entrambi. Notazione 10.21. Tipicamente indicheremo i vettori colonna con una lettera maiuscola dell’alfabeto latino: A, B, C, . . . , Z. La coordinata iesima del vettore colonna X è indicata con Xi , oppure con xi . Definiamo ora le operazioni di addizione e moltiplicazione per scalare coordinata per coordinata. Definizione 10.22. L’addizione di due vettori colonna con n coordinate su K è data da       x1 y1 x1 + y 1  x2   y 2   x2 + y 2         ..  +  ..  :=  . ..  .  .   . xn

yn

xn + y n

La moltiplicazione per scalare di un vettore colonna con n coordinate su K e uno scalare λ ∈ K è data da     x1 λx1  x2   λx2      λ ·  .  :=  .  . . .  .   .  xn λxn

Esempio 10.23. • In R2 abbiamo         1 3 1+3 4 + = = , −4 2 −4 + 2 −2       −1 3 · (−1) −3 3· = = . 2 3·2 6

Addizione sui vettori colonna Le due addizioni nell’uguaglianza sono diverse: nel membro sinistro l’addizione è sui vettori colonna (vogliamo definirla), nel membro destro è sugli elementi di K. Quindi, i due simboli + rappresentano operazioni diverse: per semplicità, usiamo lo stesso simbolo + (usiamo la Notazione 10.11 perché vedremo che i vettori colonna con n coordinate formano uno spazio vettoriale). Moltiplicazione per scalare sui vettori colonna Le due moltiplicazioni nell’uguaglianza sono diverse: nel membro sinistro la moltiplicazione è una moltiplicazione per scalare di un vettore colonna e di un elemento di K (vogliamo definirla), nel membro destro è sugli elementi di K. Quindi, il simbolo · nel membro sinistro rappresenta un’operazione diversa alla moltiplicazione nel membro destro, in cui abbiamo evitato di scrivere il simbolo · (Notazione 9.37): per semplicità, usiamo lo stesso simbolo · (usiamo la Notazione 10.11 perché vedremo che i vettori colonna con n coordinate formano uno spazio vettoriale).

• In R3 abbiamo         −3 1 + (−3) −2 1 2 + −2 = 2 + (−2) =  0  , 2 5+2 7 5       −8 −2 · 4 4 −2 · −1 = −2 · (−1) =  2  . −4 −2 · 2 2

Osservazione 10.24. La somma di due vettori che non hanno lo stesso numero di righe non può essere fatta. Proposizione 10.25. L’insieme Kn dotato dell’addizione + : Kn ×Kn → Kn e della moltiplicazione per scalare · : K × Kn → Kn definite sopra è uno spazio vettoriale sul campo K. Dimostrazione. (∗∗) Dimostriamo le proprietà della definizione di spazio vettoriale. ◮ (SV1) L’insieme Kn dotato dell’operazione di addizione + è un gruppo abeliano, infatti c 2014 Gennaro Amendola

Versione 1.0

◮ Definizione 10.3.

Lezione 10. Spazi vettoriali

10–9



     x1 y1 z1  x2   y2   z2        a) per ogni  .  ,  .  ,  .  ∈ Kn abbiamo  ..   ..   .. 

xn yn zn         x1 + (y1 + z1 ) y1 + z1 x1 z1 y1 x1  x2   y2   z2   x2   y2 + z2   x2 + (y2 + z2 )  (K1a)              =  ..  +  ..  +  ..  =  ..  +  ..  =  ..   .   .   .   .   .   . 







x + (yn + zn ) yn + zn xn zn yn      n      z1 y1 x1 z1 x1 + y 1 (x1 + y1 ) + z1               (K1a)  (x2 + y2 ) + z2   x2 + y2   z2   x2   y2   z2  =   +  ..  =  ..  +  ..  +  ..  ; = .. ..   .   .   .   .     . .

xn



xn + y n

(xn + yn ) + zn

yn

xn

zn

b) l’elemento neutro dell’addizione è il vettore colonna nullo   0 0    .. , infatti . 0

        0 x1 0 + x1 x1 0  x2   0 + x2  (K1b)  x2           ..  +  ..  =  ..  =  ..  .  .   .   . 

0 xn 0 + xn xn         x1 0 x1 + 0 x1  x2  0  x2 + 0  (K1b)  x2           ..  +  ..  =  ..  =  ..  ;  .  .  .   .  0

xn

xn + 0

xn





x1  x2    c) l’opposto di un vettore colonna  .  ∈ Kn è il vettore  ..  xn   −x1  −x2    colonna  . , infatti  ..  −xn  



     x1 −x1 x1 − x1 0  x2   −x2   x2 − x2  (K1c) 0          ..  +  ..  =   =  ..  ; ..  .   .    . . xn

c 2014 Gennaro Amendola

−xn

xn − xn

0

Versione 1.0

zn

Lezione 10. Spazi vettoriali

10–10



   x1 y1  x2   y 2      d) per ogni  .  ,  .  ∈ Kn abbiamo  ..   ..  xn 

yn        x1 y1 y 1 + x1 x1 + y 1 y1 x1  x2   y2   x2 + y2  (K1d)  y2 + x2   y2   x2               =  ..  +  ..  .  =   ..  +  ..  =  .. ..  .  .     .  .  . . 

 



xn

y n + xn

xn + y n

yn 





µxn 

yn

xn

x1  x2    (SV2) Per ogni  .  ∈ Kn e λ, µ ∈ K abbiamo  ..  xn            x1 µx1 λ(µx1 ) (λµ)x1 x1   x2    µx2   λ(µx2 )  (K2a)  (λµ)x2   x2             λ·µ ·  .  = λ· .  =  .  =  .  = (λ·µ)· .  .   ..   ..   ..   ..   ..  xn

λ(µxn )

(λµ)xn

xn

x1  x2    (SV3) Per ogni  .  ∈ Kn e λ, µ ∈ K abbiamo  ..  xn           x1 (λ + µ)x1 λx1 + µx1 λx1 µx1  x2   (λ + µ)x2  (K3)  λx2 + µx2   λx2   µx2            (λ + µ) ·  .  =   =   =  ..  +  ..  = .. .. .  .       .   .  . . xn

(λ + µ)xn λxn + µxn       x1 x1   x2    x2        = λ ·  .  + µ ·  .  .   ..    .. 

λxn

µxn

xn xn    x1 y1  x2   y 2      (SV4) Per ogni  .  ,  .  ∈ Kn e λ ∈ K abbiamo  ..   ..  







xn 

yn

      x1 y1 x1 + y 1 λ (x1 + y1 ) λx1 + λy1  x2   y2   x2 + y2   λ (x2 + y2 )  (K3)  λx2 + λy2            λ ·  .  +  .  = λ ·  =  =  = .. .. ..  ..   ..        . . . xn

yn

xn + y n  

λ (xn + yn ) λxn + λyn       λx1 λy1 x1 y1  λx2   λy2    x2    y2            =  .  +  .  = λ ·  .  + λ ·  .  .  ..   ..    ..    ..  

λxn

c 2014 Gennaro Amendola



λyn

xn

yn

Versione 1.0

Lezione 10. Spazi vettoriali

10–11



       x1 x1 1 · x1 x1  x2   x2   1 · x2  (K2b)  x2          (SV5) Per ogni  .  ∈ Kn abbiamo 1·  .  =  .  =  . .  ..   ..   ..   ..  xn

1 · xn

xn

xn

Esempio 10.26. Gli insiemi Qn , Rn e Cn dotati dell’addizione e della moltiplicazione per scalare coordinata per coordinata definita sopra sono spazi vettoriali rispettivamente sui campi Q, R e C. Osservazione 10.27. Le quattro proprietà della Proposizione 10.7 sono verificate anche per Kn ◮:       x1 x1 0  x2   x2  0       (SV6) per ogni  .  ∈ Kn abbiamo 0 ·  .  =  .  = 0n ;  ..   ..   ..  xn



xn

◮ Sono verificate per tutti gli spazi vettoriali, quindi, visto che abbiamo dimostrato che Kn è uno spazio vettoriale, non dobbiamo dimostrarle anche per Kn .

0



x1  x2    (SV7) per ogni  .  ∈ Kn abbiamo ◮  ..  xn       x1 −x1 x1  x2   −x2   x2        (−1) ·  .  =  .  = −  .  ;  ..   ..   .. 

◮ Nell’ultima uguaglianza stiamo usando la Notazione 9.20, ossia l’opposto del vetto t re colonna x1 x2 · · · xn , che per quanto detto nella dimostrazione sopra  t −x1 −x2 · · · −xn , è indicato è  t anche con − x1 x2 · · · xn .

−xn

xn

xn     0 0 0 0     (SV8) per ogni λ ∈ K abbiamo λ ·  .  =  . ;  ..   ..  

0 

0

    x1 x1 0  x2   x2  0       (SV9) per ogni λ ∈ K \ {0}, se  .  ∈ Kn e λ ·  .  =  .  allora  ..   ..   ..  xn xn 0     x1 0  x2  0     abbiamo  .  =  . .  ..   ..  xn

0

Equazioni vettoriali Definizione 10.28. Una equazione vettoriale è una equazione in cui le incognite sono vettori. Una equazione in forma vettoriale è una equazione in cui i due membri sono vettori. Osservazione 10.29. Nel caso dei vettori colonna le incognite numeriche di una equazione vettoriale sono le coordinate dei vettori incogniti. Nel caso di una equazione in forma vettoriale con due vettori colonna nei due membri dell’uguaglianza, i due vettori colonna devono avere lo c 2014 Gennaro Amendola

Versione 1.0

Equazione vettoriale Equazione in forma vettoriale

Lezione 10. Spazi vettoriali

10–12

stesso numero di coordinate, altrimenti l’equazione non può avere soluzione. Inoltre, una equazione in forma vettoriale con due vettori colonna nei due membri dell’uguaglianza è equivalente a un sistema di equazioni, dove il numero di equazioni coincide con il numero delle coordinate dei vettori nei due membri dell’uguaglianza. Esempio 10.30. 1. Dati i vettori geometrici w e u mostrati nella figura, l’uguaglianza 2v + u = w è una equazione vettoriale la cui incognita è il vettore geometrico v. ◮ 2. L’uguaglianza     3 3 2 · −1 − 3 · X = −8 −4 −5

◮ è un’equazione vettoriale  la cui incognita è il vettore colonna X. x1 Se scriviamo X = x2 , con xi ∈ R per i = 1, 2, 3, l’equazione x3 diventa       3 x1 3 2 · −1 − 3 · x2  = −8 . −4 x3 −5

◮ Risolveremo nell’Esercizio 10.2.

l’equazione

◮ Risolveremo nell’Esercizio 10.3.

l’equazione

◮ Risolveremo nell’Esercizio 10.4.

l’equazione

◮ Risolveremo nell’Esercizio 10.5.

l’equazione

Facendo la moltiplicazione per scalare e l’addizione otteniamo           6 3x1 3 6 − 3x1 3 −2 − 3x2  = −8 e quindi −2 − 3x2  = −8 . −8 3x3 −5 −8 − 3x3 −5

Pertanto, l’equazione vettoriale è equivalente al sistema di equazioni   6 − 3x1 = 3 −2 − 3x2 = −8 .  −8 − 3x3 = −5

3. Dati i vettori geometrici v, w e u mostrati nella figura, l’uguaglianza λv + 2u = w è una equazione in forma vettoriale la cui incognita è il numero reale λ. ◮ 4. L’uguaglianza       −1 −3 1 α · 0 + β ·  2  =  4  4 1 −2

è una equazione in forma vettoriale le cui incognite sono i numeri reali α e β. ◮ Facendo la moltiplicazione per scalare e l’addizione otteniamo           α −β −3 α−β −3  0  +  2β  =  4  e quindi  0 + 2β  =  4  . 4α β −2 4α + β −2

c 2014 Gennaro Amendola

Versione 1.0

Lezione 10. Spazi vettoriali

10–13

Pertanto, l’equazione in forma vettoriale è equivalente al sistema di equazioni   α − β = −3 0 + 2β = 4 .  4α + β = −2

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 10/S1 SPAZI VETTORIALI 1

Sessione di Studio 10.1

Spazi vettoriali

Lezione 10. Spazi vettoriali

10–14

Sessione di Studio 10.1 Esercizio 10.1. Dimostra che Funz (I, V ) con l’addizione e la moltiplicazione per scalare definite nell’Esempio 10.6-6 è uno spazio vettoriale. Soluzione. Dimostriamo che tutte le proprietà della definizione sono soddisfatte. Useremo solo la definizione di addizione e di moltiplicazione per scalare su Funz (I, V ), e il fatto che V è uno spazio vettoriale su ◮ Per ogni proprietà, useremo K. ◮ rispettiva proprietà di V . (SV1) a) per ogni f, g, h ∈ Funz (I, V ) abbiamo f + (g + h)= (f +  g) + h, infatti f (x) + g(x) + h(x) = f (x) + g(x) + h(x) per tutti gli x ∈ I perché lo spazio vettoriale V soddisfa la proprietà (SV1a). b) l’elemento neutro di Funz (I, V ) è la funzione f0 ∈ Funz (I, V ) identicamente nulla (ossia f0 (x) = 0 per tutti gli x ∈ I), invero f0 + f = f + f0 = f per ogni f ∈ Funz (I, V ), infatti f0 (x) + f (x) = 0 + f (x) = f (x) e f (x) + f0 (x) = f (x) + 0 = f (x) per tutti gli x ∈ I perché lo spazio vettoriale V soddisfa la proprietà (SV1b). c) l’opposto di una funzione f ∈ Funz (I, V ) è la funzione (−f ) ∈ Funz (I, V ) tale che (−f )(x) = − f (x) per tutti gli x ∈ I, invero f + (−f ) = (−f ) + f = f0 per ogni  f ∈ Funz (I, V ), infatti f (x) + (−f )(x) = f (x) − f (x) = 0 = f0 (x) and (−f )(x)+f (x) = − f (x) +f (x) = 0 = f0 (x) per tutti gli x ∈ I perché lo spazio vettoriale V soddisfa la proprietà (SV1c). d) per ogni f, g ∈ Funz (I, V ) abbiamo f + g = g + f , infatti f (x)+ g(x) = g(x)+ f (x) per tutti gli x ∈ I perché lo spazio vettoriale V soddisfa la proprietà (SV1d). (SV2) per ogni f ∈ Funz (I,  V ) e λ, µ ∈ K abbiamo λ·(µ·f ) = (λ·µ)·f , infatti λ · µ · f (x) = (λ · µ) · f (x) per tutti gli x ∈ I perché lo spazio vettoriale V soddisfa la proprietà (SV2). (SV3) per ogni f ∈ Funz (I, V ) e λ, µ ∈ K abbiamo (λ + µ) · f =  (λ·f )+(µ·f ), infatti (λ+µ)·f (x) = λ·f (x) + µ·f (x) per tutti gli x ∈ I perché lo spazio vettoriale V soddisfa la proprietà (SV3). (SV4) per ogni f, g ∈ Funz (I, V ) eλ ∈ K abbiamo  λ · (f +g) = (λ · f ) + (λ · g), infatti λ · f (x) + g(x) = λ · f (x) + λ · g(x) per tutti gli x ∈ I perché lo spazio vettoriale V soddisfa la proprietà (SV4).  (SV5) per ogni f ∈ V abbiamo 1·f = f , infatti 1· f (x) = f (x) per tutti gli x ∈ I perché lo spazio vettoriale V soddisfa la proprietà (SV5). Esercizio 10.2. Risolvi l’equazione vettoriale dell’Esempio 10.30-1. Soluzione. Aggiungendo a entrambi i membri dell’equazione il vettore geometrico −u, otteniamo 2v = w − u; moltiplicando per lo scalare 12 entrambi i membri dell’equazione, otteniamo v = 12 (w − u).

c 2014 Gennaro Amendola

Versione 1.0

solo la

Lezione 10. Spazi vettoriali

10–15

Esercizio 10.3. Risolvi l’equazione vettoriale dell’Esempio 10.30-2. Soluzione. Aggiungendo a entrambi i  membri il vettore   dell’equazione   3 3 3 colonna −2 −1, otteniamo −3X = −8 − 2 −1, ossia −3X = −4 −5 −4       −3 −6 3 −8 +  2 , i.e. −3X = −6; moltiplicando per lo scalare − 1 3 3 8 −5     1 −3 1   2 . entrambi i membri dell’equazione, otteniamo X = − 3 −6 = −1 3

Possiamo anche risolvere l’equazione vettoriale risolvendo il sistema equivalente    x1  6 − 3x1 = 3 −2 − 3x2 = −8 dove X = x2   x3 −8 − 3x3 = −5 (Esempio 10.30-2). La soluzione del sistema è (x1 , x2 , x3 ) = (1, 2, −1), e quindi la soluzione dell’equazione   vettoriale   è x1 1 il vettore colonna X = x2  =  2 . x3 −1

Esercizio 10.4. Risolvi l’equazione in forma vettoriale dell’Esempio 10.303. Soluzione. Aggiungendo a entrambi i membri dell’equazione il vettore geometrico −2u, otteniamo λv = w −2u; visto che w −2u è un multiplo di v, abbiamo che esiste λ ∈ R tale che λv = w − 2u, e dalla figura otteniamo che la soluzione è λ = −1. Esercizio 10.5. Risolvi l’equazione in forma vettoriale dell’Esempio 10.304. Soluzione. Risolviamo l’equazione in forma vettoriale risolvendo il si α − β = −3  stema equivalente 0 + 2β = 4 (Esempio 10.30-4). La soluzione del  4α + β = −2 sistema è (α, β) = (−1, 2), e quindi anche la soluzione dell’equazione in forma vettoriale è (α, β) = (−1, 2). Esercizio 10.6. Calcola le seguenti somme di vettori colonna:         1 0 1+i 0 −3 −2   +  , 2 − 3i + 1 − i . 0 1 i −2 2 −4

Soluzione.         1 0 1+0 1 −3 −2 −3 + (−2) −5  + =     0   1   0 + 1  =  1 , 2 −4 2 + (−4) −2         1+i 0 (1 + i) + 0 1+i 2 − 3i + 1 − i = (2 − 3i) + (1 − i) =  3 − 4i  . i −2 i + (−2) −2 + i

c 2014 Gennaro Amendola

Versione 1.0

Non possiamo risolvere l’equazione come abbiamo fatto nell’Esercizio 10.3, perché qui abbiamo due incognite.

Lezione 10. Spazi vettoriali

10–16

Esercizio 10.7. Calcola i seguenti prodotti per scalare di vettori colonna:     2 √ i (1 + i) , 3 − 2 . 2 − 4i 4 Soluzione.       i (1 + i)i −1 + i (1 + i) = = , 2 − 4i (1 + i)(2 − 4i) 6 − 2i     2 6 √ √ 3 − 2 = −3 2 . 4 12 Esercizio 10.8. Calcola la seguente espressione di vettori colonna:        3 2 −1       − −1 + 2 0 5 − (−2) 2  . 0 0 1 Soluzione.              3 2 −1 −3 0 2 − −1 + 2 0 5 − (−2)  2  =  1  + 2 0 − −4 = 0 0 1 0 0 −2           −3 −2 −3 −4 −7          = 1 +2 4 = 1 + 8 = 9 . 0 2 0 4 4 Esercizio 10.9. Risolvi l’equazione (vettoriale) p(0) = 0 la cui variabile p(x) appartiene a K[x]. Soluzione. Sia p(x) = an xn + an−1 xn−1 + · · · + a1 x + a0 . Abbiamo p(0) = an 0n +an−1 0n−1 +· · ·+a1 0+a0 = a0 , quindi l’equazione p(0) = 0 è equivalente a a0 = 0. Quindi, le soluzioni sono tutti i polinomi il cui termine noto è 0, ossia p(x) = an xn + an−1 xn−1 + · · · + a1 x. Esercizio 10.10. Risolvi l’equazione in forma vettoriale ◮  a(x − 1) + 2x2 = b x2 − x + 2

◮ Qui i polinomi sono pensati come vettori.

con a, b ∈ R.

Soluzione. Riscrivendo l’equazione abbiamo

(2 − b)x2 + (a + b)x + (−a − 2) = 0   2−b=0 Quindi, abbiamo a + b = 0 , la cui soluzione è (a, b) = (−2, 2).  −a − 2 = 0

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 10/S2 SPAZI VETTORIALI 1

Sessione di Studio 10.2

Spazi vettoriali

Lezione 10. Spazi vettoriali

10–17

Sessione di Studio 10.2 Esercizio 10.11. Dimostra che V 2E con l’addizione e la moltiplicazione per scalare definite nella Lezione 8 è uno spazio vettoriale sul campo R. ◮ Esercizio 10.12. Mostra alcuni esempi delle proprietà soddisfatte dall’addizione e dalla moltiplicazione per scalare in R[x1 , x2 , . . . , xn ], come spazio vettoriale su R. Esercizio 10.13. Dimostra che C con l’usuale addizione di numeri complessi e la moltiplicazione per scalare definita nell’Esempio 10.6-5 è uno spazio vettoriale reale. Esercizio 10.14. Calcola le seguenti somme di vettori colonna:     0 1     −1 −1 4 + 3i 3   +  , + . 0 2 6 − 3i 4−i 7 −3

Esercizio 10.15. Calcola i seguenti prodotti per scalare di vettori colonna:     4 3 − 4i −3  (−i)  2 + i  , 2  1 . i 5

Esercizio 10.16. Calcola l’opposto dei seguenti vettori colonna:     6 − 2i   1  i  0  ,  0 . , 2 − 7i 0 −1 −3

Esercizio 10.17. Calcola la seguente espressione di vettori colonna:        6 2 4 1        4 . − 3 3 −2 1 + 2 −1 −1 3 Esercizio 10.18. Risolvi le seguenti equazioni vettoriali:      1 4 1. 2 − X + 3X = X − con X ∈ R2 , −3 6        2−i −i 2i 2.  i  + i 3 − i − X  =  2  con X ∈ C3 , 0 3 1−i         −3 1 3 8  −2  −4 4        3. 2Y −   2  = 2 3  0  + Y  −  2  con Y ∈ R . −9 1 −3

Esercizio 10.19. Risolvi le seguenti equazioni in forma vettoriale:       −1 2 2      1. α 0 + β 3 = 1 con α, β ∈ R, 2 1 1 c 2014 Gennaro Amendola

Versione 1.0

◮ Esempio 10.6-1.

Lezione 10. Spazi vettoriali

10–18



     −3 −1 0 2. x +y = con x, y ∈ R, 5 2 1         i 2 2+i 0 3. a 0 + b 1 + c  1  = 0 con a, b, c ∈ C. i 0 i 0

c 2014 Gennaro Amendola

Versione 1.0

Lezione 10. Spazi vettoriali

10–19

Risultato dell’Esercizio 10.11. Dimostra che tutte le proprietà della definizione sono soddisfatte. ◮

◮ Vedi il caso di V 3E nell’Esempio 10.6-1.

Risultato dell’Esercizio 10.12. Scegli polinomi arbitrariamente: per Questo esercizio non ha un’unica soluzione, quindi il lettore può trovare una soluzione esempi, diversa.   (SV1) a) x21 + 2x21 + (x1 + 1) = 3x21 + x1 + 1 = x21 + 2x21 + (x1 + 1), b) 0 + (x1 x2 − x2 ) = (x1 x2 − x2 ) + 0 = (x1 x2 − x2 ),     c) x21 x3 + 1 + −x21 x3 − 1 = −x21 x3 − 1 + x21 x3 + 1 = 0,  d) x1 x22 + x3 +(x1 x2 − 3x3 ) = x1 x22 +x1 x2 −2x3 = (x1 x2 − 3x3 )+ x1 x22 + x3 ;    (SV2) λ µ x22 + x1 = λµx22 + λµx1 = (λµ) x22 + x1 ;    (SV3) (λ + µ) x32 − x1 = λ x32 − x1 + µ x32 − x1 ;

(SV4) λ (x1 + x2 ) = (λx1 ) + (λx2 );  (SV5) 1 · x23 + 2x1 = x23 + 2x1 .

Risultato dell’Esercizio 10.13. Dimostra che tutte le proprietà della definizione sono soddisfatte. ◮   1   −2 7 + 3i   Risultato dell’Esercizio 10.14.  . . 10 − 4i 2 4     8 −4 − 3i −6  Risultato dell’Esercizio 10.15.  1 − 2i .   2 . 1 10     −6 + 2i   −1  −i  0 .  0 . Risultato dell’Esercizio 10.16.  . −2 + 7i 0 1 3   5 Risultato dell’Esercizio 10.17. −5.

◮ Le proprietà sono quasi ovvie, perché C è un campo e la moltiplicazione per scalare per un elemento λ di R è essenzialmente la moltiplicazione in C, se λ è pensato come un numero complesso.

17 2

  −3 − 3i Risultato dell’Esercizio 10.18. 1. Nessuna soluzione. 2. X =  4 + i . 4+i 3. Tutti gli Y sono soluzioni. Risultato dell’Esercizio 10.19. 1. Nessuna soluzione. 2. (x, y) = (−1, 3). 3. (a, b, c) = (−α, −α, α) con α ∈ R.

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 10/S3 SPAZI VETTORIALI 1

Sessione di Studio 10.3

Spazi vettoriali

Lezione 10. Spazi vettoriali

10–20

Sessione di Studio 10.3 Letture supplementari possono essere le seguenti: • http://it.wikipedia.org/wiki/Spazio_vettoriale

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 10/S3 Spazi vettoriali 3

Sessione di Studio 10.3 Quiz

Spazi vettoriali

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 10/S3 Spazi vettoriali 3

• Risolvere il seguente quiz a risposta multipla in cui per ogni domanda una sola risposta è giusta. • Rivedere le risposte del quiz.

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 11 COMBINAZIONI LINEARI 1

Lezione 11 Combinazioni lineari

Lezione 11

Combinazioni lineari In questa lezione definiremo le combinazioni lineari. Da un lato, esse sono la più semplice espressione che possiamo scrivere uno spazio vettoriale: sono somme di prodotti per scalare. Dall’altro, esse sono anche le più generali, perché ogni espressione in uno spazio vettoriale può essere ridotta a una combinazione lineare attraverso le proprietà degli spazi vettoriali.

11.1

Combinazioni lineari

Definizione 11.1. Sia V uno spazio vettoriale su un campo K. Si considerino v 1 , v 2 , . . . , v n ∈ V e λ1 , λ2 , . . . , λn ∈ K. La scrittura

Combinazione lineare

λ1 v 1 + λ2 v 2 + · · · + λn v n

è detta combinazione lineare dei vettori v i . Gli scalari λi sono detti coefficienti della combinazione lineare. Il vettore v = λ1 v 1 + λ2 v 2 + · · · + λn v n è detto risultato o valore della combinazione lineare. Zero vettori ◮ danno una sola combinazione lineare, il cui risultato o valore è il vettore nullo. Esempio 11.2. 1. La combinazione lineare dei vettori geometrici v e w, mostrati in figura, con coefficienti 3 e 2 è la scrittura

Risultato/valore La definizione particolare nel caso in cui non ci siano vettori dipende dal fatto che, nel seguito, essa ci permetterà di considerare nei vari enunciati anche il caso in cui V = {0}, che altrimenti dovremmo trattare a parte. ◮ I.e. an empty set of vectors (with no element).

3v + 2w, il cui risultato è il vettore geometrico u = 3v + 2w mostrato in ◮. figura ◮       1 −1 2 e , 2. La combinazione lineare dei vettori colonna 1 0 3 con coefficienti 2, 0 e −3 è la scrittura       2 −1 1 2· +0· + (−3) · , 3 0 1   1 ◮ . il cui risultato è il vettore colonna 3 La scrittura     2 1 2· + (−3) · 3 1 c 2014 Gennaro Amendola

Coefficienti

Versione 1.0

◮ ◮ Abbiamo visto come calcolare l’addizione e la moltiplicazione per scalare sui vettori geometrici nella Lezione 8.

◮ Abbiamo visto come calcolare l’addizione e la moltiplicazione per scalare sui vettori colonna nella Lezione 10.

Lezione 11. Combinazioni lineari

11–2

è una combinazione lineare diversa dalla precedente ◮ : essa ha, però, lo stesso risultato della precedente.

◮ Non c’è il vettore colonna



 −1 . 0

3. La combinazione lineare       2 −1 1 0· +0· +0· 3 0 1 ha come risultato il vettore colonna 02 . 

 1 4. La combinazione lineare del vettore colonna  3  con coefficiente −4 3 è la scrittura   1 3 ·  3 , −4   3 il cui risultato è il vettore colonna  9 . −12

5. La combinazione lineare dei polinomi x2 +x e 3x+1 con coefficienti −1 e 2 è la scrittura  (−1) · x2 + x + 2(3x + 1)

il cui risultato è il polinomio −x2 + 5x + 2. Ogni polinomio può essere visto come il risultato di una combinazione lineare delle parti letterali dei suoi monomi ◮ con coefficienti i coefficienti numerici dei suoi monomi: per esempio,  4x2 y − 3xy + 3 = 4 · x2 y + (−3) · (xy) + 3 · (1),

◮ Per i monomi costanti consideriamo 1 come parte letterale.

Osservazione 11.3. Una combinazione lineare non è solo il risultato v, infatti ci possono essere combinazioni lineari diverse (anche con gli stessi vettori) che hanno lo stesso risultato ◮, come vedremo nell’esempio seguente. Nota che, però, dal punto di vista grafico la combinazione lineare e il risultato sono indicati nello stesso modo: λ1 v 1 + λ2 v 2 + · · · + λn v n .

◮ Nell’Esempio 11.2-2 abbiamo visto combinazioni lineari diverse che hanno lo stesso risultato, ma con vettori diversi.

dove le parti letterali sono x2 y, xy e 1, e i coefficienti sono 4, −3 e 3.

Esempio 11.4. 1. La combinazione lineare dei vettori geometrici v e w, mostrati nella figura, con coefficienti 1 e 0, ossia 1 · v + 0 · w, e quella con coefficienti 0 e 2, ossia 0 · v + 2 · w, hanno lo stesso risultato, v. 2. Le due combinazioni lineari dell’Esempio 11.2-2 hanno ovviamente lo stesso risultato. Questo può succedere anche cambiando  so 2 lo i coefficienti: la combinazione lineare dei vettori colonna , 3         −1 1 2 −1 e con coefficienti 1, 1 e 0, ossia 1 · +1· +0· 0 1 3 0   1 , è diversa dalla prima dell’Esempio 11.2-2, perché i coefficienti 1 sono diversi, ma ha lo stesso risultato.

c 2014 Gennaro Amendola

Versione 1.0

Lezione 11. Combinazioni lineari

11–3

3. La combinazione lineare dell’Esempio 11.2-3 ha lo stesso risultato (questa volta uguale a 02 ) della combinazione lineare deglistessi  2 vettori ma con coefficienti non nulli 1, −1 e −1, ossia 1 · + 3     −1 1 (−1) · + (−3) · . 0 1 Osservazione 11.5. Dato uno spazio vettoriale V su un campo K, le combinazioni lineari di un vettore v ∈ V sono λv con λ ∈ K, quindi i risultati di queste combinazioni lineari sono i multipli di v. ◮ Notazione 11.6. Per semplicità, se abbiamo un segno meno in un coefficiente, evitiamo di scrivere parentesi, a meno che esse non chiarifichino il significato della combinazione lineare. ◮

c 2014 Gennaro Amendola

Versione 1.0

◮ Esempio 11.2-4.

◮ Per esempio, scriveremo −2v − 3w, invece di (−2)v + (−3)w.

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 11 Combinazioni lineari 3

Lezione 11 Aula virtuale

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 11 Combinazioni lineari 3

Aula virtuale Lo studente segua almeno 4 aule virtuali durante il corso. La scelta di quali aule virtuali seguire è lasciata allo studente.

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 11/S1 COMBINAZIONI LINEARI 1

Sessione di Studio 11.1 Combinazioni lineari

Lezione 11. Combinazioni lineari

11–4

Sessione di Studio 11.1 Esercizio Trova una combinazione   lineare dei vettori colonna       11.1. 5 −3 1 0 . il cui risultato è e , −5 4 3 2 Soluzione. Scriviamo una combinazione lineare generica dei vettori e   −5 imponiamo che il risultato sia : −5         0 1 −3 5 a +b +c = . 2 3 4 −5   Le soluzioni dell’equazione in forma vettoriale sono (a, b, c) = −20−13γ , 5 + 3γ, γ 2 con γ ∈ R. ◮ Scegliendo, per esempio, γ = −2 otteniamo (a, b, c) = (3, −1, −2) e la combinazione lineare       0 1 −3 3 + (−1) + (−2) . 2 3 4

◮ Abbiamo visto come risolvere le equazioni in forma vettoriale nella Lezione 10.

Esercizio 11.2. Trova il risultato della combinazione lineare di polinomi   1 · x2 − x + (−1) · (2x + 3) + 2 · 2x2 + 3 . Trova una combinazione lineare diversa di polinomi con lo stesso risultato. Soluzione. Il risultato è   1 · x2 − x + (−1) · (2x + 3) + 2 · 2x2 + 3 = 5x2 − 3x + 3. Per trovare la combinazione lineare, scriviamo una combinazione lineare generica dei polinomi e imponiamo che il risultato sia 5x2 −3x+3:   a1 x2 − x + a2 (2x + 3) + a3 2x2 + 3 = 5x2 − 3x + 3. Le soluzioni dell’equazione in forma vettoriale sono (a1 , a2 , a3 ) = (2α + 3, α, 1 − α) con α ∈ R; ◮ scegliendo, per esempio, α = 0 otteniamo la soluzione (a1 , a2 , a3 ) = (3, 0, 1), la cui combinazione lineare corrispondente è   3 · x2 − x + 0 · (2x + 3) + 1 · 2x2 + 3 . Esercizio Trova una combinazione lineare dei vettori colonna    11.3.   2 −1 1 , e diversa da quelle degli Esempi 11.2-2 e 11.4-2, ma 3 0 1 con lo stesso risultato.

◮ Abbiamo visto come risolvere le equazioni in forma vettoriale nella Lezione 10. Tuttavia, l’equazione può essere riscritta come (a1 + 2a3 − 5) x2 +(−a1 + 2a2 + 3) x+ (3a2 + 3a 3 − 3) = 0, che è equivalente al  a1 + 2a3 − 5 = 0 −a1 + 2a2 + 3 = 0 , le cui sosistema  3a2 + 3a3 − 3 = 0 luzioni sono (a1 , a2 , a3 ) = (2α+3, α, 1−α) con α ∈ R.

Soluzione. Scriviamo una combinazione lineare generica dei vettori e   1 ◮ ◮ Il risultato delle combinazioni lineari degli : imponiamo che il risultato sia 3 Esempi 11.2-2 e 11.4-2.         1 1 −1 2 . = +c +b a 3 1 0 3 Le soluzioni dell’equazione in forma vettoriale sono (a, b, c) = (α, 2 − α, 3 − 3α) con α ∈ R. ◮ Scegliendo, per esempio, α = 0 otteniamo (a, b, c) = (0, 2, 3) ◮ Abbiamo visto come risolvere le equazioni in forma vettoriale nella Lezione 10. e la combinazione    lineare    2 −1 1 0 +2 +3 . 3 0 1

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 11/S2 COMBINAZIONI LINEARI 1

Sessione di Studio 11.2 Combinazioni lineari

Lezione 11. Combinazioni lineari

11–5

Sessione di Studio 11.2 Esercizio 11.4. Considera i due vettori geometrici v e w mostrati nella figura. Scrivi due combinazioni lineari di essi, e disegna i loro risultati.   3 Esercizio 11.5. Scrivi due combinazioni lineari dei vettori colonna 2 0   −1  e −2, e calcola i loro risultati. 4     3 2 Esercizio 11.6. Trova la combinazione lineare dei vettori 1, 0 0 1     −1 2 e  1  con risultato 0. −3 3

Esercizio 11.7. Trova due combinazioni lineari diverse della stessa coppia di monomi con lo stesso risultato.

Esercizio Trova una combinazione lineare dei vettori colonna     11.8.  1 −1 2 diversa da quelle degli Esempi 11.2-3 e 11.4-3, ma e , 1 0 3 con lo stesso risultato. Esercizio 11.9. Trova due combinazioni lineari diverse degli stessi tre vettori in V 2E con lo stesso risultato.

c 2014 Gennaro Amendola

Versione 1.0

Lezione 11. Combinazioni lineari

11–6

Risultato dell’Esercizio 11.4. Per esempio, 2·v +1·w e (−1)·v +0·w.

    3 −1 Risultato dell’Esercizio 11.5. Per esempio, 0 2 + 0 −2 il cui 0 4         −1 7 3 0 risultato è 0, e 2 2 − 1 −2 il cui risultato è  6 . 0 4 0 −4       3 2 −1 Risultato dell’Esercizio 11.6. 2 1 − 3 0 − 2  1 . 0 1 −3

Risultato dell’Esercizio 11.7. Per esempio, m1 = x, m2 = 2x: 0 · (x) + 0 · (2x) e 2 · (x) + (−1) · (2x) hanno entrambe risultato 0.     2 −1 +1· + Risultato dell’Esercizio 11.8. Per esempio, (−1) · 3 0   1 3· . 1 Risultato dell’Esercizio 11.9.

Questo esercizio non ha un’unica soluzione, quindi il lettore può trovare una soluzione diversa.

Questo esercizio non ha un’unica soluzione, quindi il lettore può trovare una soluzione diversa. Questo esercizio non ha un’unica soluzione, quindi il lettore può trovare una soluzione diversa. Controlla che il risultato è davvero 02 .

Questo esercizio non ha un’unica soluzione, quindi il lettore può trovare una soluzione diversa.

0 · v + 0 · w + 0 · u e 1 · v + 1 · w + (−1) · u. ◮

c 2014 Gennaro Amendola

Questo esercizio non ha un’unica soluzione, quindi il lettore può trovare una soluzione diversa.

◮ Il risultato di entrambe le combinazioni lineari è 0.

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 11/S3 COMBINAZIONI LINEARI 1

Sessione di Studio 11.3 Combinazioni lineari

Lezione 11. Combinazioni lineari

11–7

Sessione di Studio 11.3 Letture supplementari possono essere le seguenti: • http://it.wikipedia.org/wiki/Combinazione_lineare

c 2014 Gennaro Amendola

Versione 1.0

Lezione 11. Combinazioni lineari

11–8

Sessione di Studio 11.Quiz Seguirà un quiz, le cui domande sono le seguenti, per controllare il livello di approfondimento degli argomenti studiati: assicurati di avere a disposizione queste domande quando farai il quiz. L’esito del quiz non sarà tenuto in considerazione per l’esame. Dopo aver svolto il quiz ricontrolla le domande, specialmente quelle a cui non hai risposto in maniera corretta. Per ognuna delle seguenti domande, la risposta esatta è una sola. Domanda 11.1. Dati i vettori geometrici indicati in figura, quale è il risultato della combinazione lineare dei vettori v, w, u con coefficienti rispettivamente 2, 1, −1?

(a) 2u. (b) u. (c) w. (d) v. Domanda 11.2. Quale il risultato   della combinazione lineare dei vet è   1 4 2 tori colonna  3 , −2,  0  con coefficienti rispettivamente −3, −3 0 −1 1, 0?   −2 (a) −11. 3   −6 (b)  3 . 0   10  (c) 11. 3   −3 (d)  1 . 0

c 2014 Gennaro Amendola

Versione 1.0

Lezione 11. Combinazioni lineari

11–9

Domanda Quale delle seguenti combinazioni lineari dei vettori  11.3.   2 4 colonna e ha come risultato il vettore colonna nullo? 3 6     2 4 (a) 2 + . 3 6     2 4 (b) −2 . 3 6     2 4 (c) 2 − . 3 6     2 4 (d) 2 +2 . 3 6 Domanda 11.4. Dati i vettori geometrici indicati in figura, quali dei seguenti coefficienti definiscono una combinazione lineare dei vettori v e w che ha come risultato il vettore u?

(a) 1 e 1. (b) 1 e −1. (c) −1 e 1. (d) 0 e 0. Domanda 11.5. Quali dei seguenti definiscono una combi    coefficienti 4 2 nazione lineare dei vettori colonna  3  e  0  che ha come risultato −1 −1   −8 il vettore colonna  6 ? 1 (a) 0 e 0. (b) −2 e 3. (c) 2 e 3. (d) 2 e −3. Domanda 11.6. Quali dei seguenti coefficienti definiscono una combinazione lineare dei polinomi x2 − x, 2x2 − 3, x che ha come risultato il polinomio x2 ? (a) 1, 1, 1. (b) 1, 0, 1. (c) 1, 0, −1. (d) Nessuna delle altre risposte.

c 2014 Gennaro Amendola

Versione 1.0

Lezione 11. Combinazioni lineari

11–10

Domanda 11.7. Quale delle seguenti coppie di  vettori  colonna può 4 formare una combinazione lineare il cui risultato è 5? 1     0 0 (a)  3  e  2 . −1 −3     1 2 (b)  1  e  2 . −1 −2     2 1    3 (c) e 1. −1 1     4 0 (d)  5  e 0. −1 0   2 Domanda 11.8. Quante combinazioni lineari dei vettori colonna 1     0 3 ? hanno come risultato e 0 −2 (a) 0. (b) 1. (c) Infinite. (d) Nessuna delle altre risposte.   2 Domanda 11.9. Quante combinazioni lineari dei vettori colonna 1     4 0 hanno come risultato ? e 2 0 (a) 0. (b) 1. (c) Infinite. (d) Nessuna delle altre risposte. Domanda Esiste una combinazione lineare dei vettori colonna    11.10.  −1 −2 e con i coefficienti non tutti nulli con risultato il vettore 3 6   0 nullo ? 0 (a) Sì. (b) No. (c) Dipende dallo spazio vettoriale. (d) Nessuna delle altre risposte.

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 11/S3 Combinazioni lineari 3

Sessione di Studio 11.3 Quiz Combinazioni lineari

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 11/S3 Combinazioni lineari 3

• Risolvere il seguente quiz a risposta multipla in cui per ogni domanda una sola risposta è giusta. • Rivedere le risposte del quiz.

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 12 SOTTOSPAZI VETTORIALI E SOTTOSPAZI GENERATI 1

Lezione 12 Sottospazi vettoriali e sottospazi generati

Lezione 12

Sottospazi vettoriali e sottospazi generati In questa lezione definiremo i sottospazi vettoriali, ossia i sottoinsiemi di spazi vettoriali che ereditano la struttura di spazio vettoriale. Introdurremo anche il sottospazio generato, ossia un modo semplice per definire sottospazi vettoriali scegliendo solo alcuni elementi che li producono attraverso combinazioni lineari.

12.1

Sottospazi vettoriali

Definizione 12.1. Sia V uno spazio vettoriale dotato di addizione + e moltiplicazione per scalare · su un campo K. Un sottoinsieme W ⊂ V è detto sottospazio vettoriale di V se W è uno spazio vettoriale su K con l’addizione + e la moltiplicazione per scalare · di V .

Esempio 12.2. Dato uno spazio vettoriale V , i suoi due sottoinsiemi {0} e V sono sottospazi vettoriali di V . Il primo per l’Esempio 10.6-2, il secondo per ipotesi ◮.

Sottospazio vettoriali

◮ There is nothing to prove for V .

Eccetto per i due casi dell’esempio precedente, il controllo che un determinato sottoinsieme W è un sottospazio vettoriale di V utilizzando la sola definizione può essere lungo. La seguente proposizione ci permetterà di verificare solamente tre semplici condizioni. Proposizione 12.3. Sia V uno spazio vettoriale dotato di addizione + e moltiplicazione per scalare · su un campo K. Un sottoinsieme W di V è un sottospazio vettoriale di V se e solo se valgono le seguenti proprietà: (SSV1) 0 ∈ W ; (SSV2) per ogni v, w ∈ W si ha v + w ∈ W ;

(SSV3) per ogni v ∈ W e λ ∈ K si ha λ · v ∈ W . Dimostrazione. (∗∗) Dobbiamo dimostrare due implicazioni. Cominciamo dimostrando che se W è un sottospazio vettoriale di V , allora W soddisfa le proprietà (SSV1), (SSV2) e (SSV3). (SSV1) Per la proprietà (SV1b), che vale per il sottospazio vettoriale W per ipotesi, abbiamo che 0 ∈ W . c 2014 Gennaro Amendola

Versione 1.0

Per dimostrare che un sottoinsieme W di uno spazio vettoriale è un sottospazio vettoriale non è necessario dimostrare tutte le proprietà della definizione di spazio vettoriale (Definizione 10.3), che sono automaticamente soddisfatte: è sufficiente dimostrare soltanto che l’elemento neutro dell’addizione appartiene a W e che l’addizione e la moltiplicazione per scalare sono operazioni su W .

Lezione 12. Sottospazi vettoriali e sottospazi generati

12–2

(SSV2) Fissiamo v, w ∈ W ; visto che l’addizione + è un’operazione su W , abbiamo che v + w ∈ W .

(SSV3) Fissiamo v ∈ W and λ ∈ K; visto che la moltiplicazione per scalare · è un’operazione su W , abbiamo che λ · v ∈ W . Dimostriamo ora l’implicazione inversa: se W è un sottoinsieme di V che soddisfa le proprietà (SSV1), (SSV2) e (SSV3), allora W è un sottospazio vettoriale di V . Le proprietà (SSV2) e (SSV3) implicano che l’addizione + e la moltiplicazione per scalare · su W sono operazioni su W . ◮ Dimostriamo che esse soddisfano tutte le proprietà della definizione di spazio vettoriale ◮ for W . Le proprietà (SV1a), (SV1d), (SV2), (SV3) (SV4) e (SV5) sono soddisfatte in W perché lo sono in V e perché W ⊂ V . La proprietà (SSV1) e il fatto che 0 è l’elemento neutro dell’addizione + di V (proprietà (SV1b) dello spazio vettoriale V ), implicano la proprietà (SV1b) per W . Rimane da dimostrare la proprietà (SV1c) per W . Consideriamo un generico vettore w ∈ W ; il vettore w è anche un vettore di V , quindi per la proprietà (SV1c) dello spazio vettoriale V abbiamo che esiste (−w) ∈ V opposto di w. Concludiamo dimostrando che (−w) ∈ W : applichiamo la proprietà (SV7) dello spazio vettoriale V e otteniamo (−w) = (−1) · w; per la proprietà (SSV3), che vale in W per ipotesi, abbiamo che (−1) · w ∈ W , ossia (−w) ∈ W .

◮+: W × W → W , ·: K × W → W . ◮ Definizione 10.3.

Tutte le proprietà della Definizione 10.3 sono soddisfatte nello spazio vettoriale V e quindi le possiamo usare, perché W ⊂ V .

Osservazione 12.4. In alcuni libri di testo, invece delle tre proprietà precedenti, sono considerate le due proprietà equivalenti: (SSV1’) W non è vuoto; (SSV2’) per ogni v, w ∈ W e λ, µ ∈ K abbiamo λ · v + µ · w ∈ W . La prima sostituisce la proprietà (SSV1), mentre la seconda sostituisce le proprietà (SSV2) e (SSV3). Esempio 12.5. I seguenti sottoinsiemi W dello spazio vettoriale V sono sottospazi vettoriali di V .  1. V = R2 e W = X ∈ R2 3x1 − 2x2 = 0 . ◮ Verifichiamo che le tre condizioni della Proposizione 12.3 sono soddisfatte:   0 (SSV1) ∈ W infatti 3 · 0 − 2 · 0 = 0; 0 (SSV2) per ogni X, Y ∈ W abbiamo 3x1 − 2x2 = 0 e 3y1 − 2y2 = 0 ◮, sommando membro a membrootteniamo  3 (x1 + y1 )− x1 + y 1 ◮. ∈W◮ 2 (x2 + y2 ) = 0, quindi X + Y = x2 + y 2 ◮ (SSV3) per ogni X ∈ W e λ ∈ R abbiamo 3x1 − 2x2 = 0 ◮ ◮, moltiplicando entrambi i membri per λ otteniamo 3 (λx 1) −   λx1 ∈ W ◮. 2 (λx2 ) = 0, quindi λ · X = λx2

◮ Ricordiamo che x1 e x2 sono le coordinate   x1 del vettore colonna X, ossia X = x2 (Notazione 10.21).

◮ Perché i due vettori colonna X =   y1 Y = appartengono a W . y2





e

x1 x2



x1 x2

◮ ◮ Definizione 10.22. ◮ ◮ ◮ Perché il vettore colonna X

appartiene a W .

=



◮ Definizione 10.22.

2. V = Kn e W = {X ∈ Kn | p (x1 , . . . , xn ) = 0}, dove p(x1 , x . . . , xn ) = a1 x1 + · · · + an xn è un polinomio di grado 1 con termine noto nul- Questa è una generalizzazione dell’esempio lo ◮. Verifichiamo che le tre condizioni della Proposizione 12.3 sono precedente. ◮ Ad esempio, 3x1 + x3 − x4 con K = R e soddisfatte: n = 4, oppure ix2 + (2 − 3i)x4 − x6 con K = C e n = 7.

◮; (SSV1) 0n ∈ W infatti p(0, . . . , 0) = 0 ◮

c 2014 Gennaro Amendola

◮ ◮ Il termine noto è nullo.

Versione 1.0

Lezione 12. Sottospazi vettoriali e sottospazi generati

12–3

(SSV2) per ogni X, Y ∈ W abbiamo a1 x1 + · · · + an xn = 0 and a1 y1 + · · · + an yn = 0 ◮, sommando membro a membro otteniamoa1 (x1 +  y1 ) + · · · + an (xn + yn ) = 0, quindi x1 + y 1   .. ◮. X +Y = ∈W◮ . xn + y n

 x1   ◮ Perché i due vettori colonna X =  ..  e . xn   y1   Y =  ...  appartengono a W . yn

4. V qualsiasi (su un campo K) e W = {k · v ∈ V | k ∈ K}, dove v ∈ V è un vettore fissato. Verifichiamo che le tre condizioni della Proposizione 12.3 sono soddisfatte:

Questa è una generalizzazione dell’esempio precedente.



◮ ◮ Definition 10.22.

◮ (SSV3) per ogni X ∈ W e λ ∈ K abbiamo a1 x1 + · · · + an xn = 0 ◮ ◮, moltiplicando entrambi i membri per a1 (λx1 )+ ◮ ◮ ◮ Because the column vector λ otteniamo  λx1 belongs to W .   · · · + an (λxn ) = 0, quindi λ · X =  ...  ∈ W ◮. ◮ Definizione 10.22. λxn     2 3. V = R2 e W = k · ∈ R2 k ∈ R . Verifichiamo che le tre 3 condizioni della Proposizione 12.3 sono soddisfatte:   2 (SSV1) 02 ∈ W infatti 02 = 0 · ; 02 corrisponde a k = 0. 3     2 2 , e Y = kY · (SSV2) per ogni X, Y ∈ W abbiamo X = kX · 3 3 sommando otteniamo       2 2 (SV3) 2 ∈ W. = (kX + kY )· +kY · X +Y = kX · 3 3 3   2 , moltipli(SSV3) per ogni X ∈ W e λ ∈ R abbiamo X = k · 3 cando otteniamo      (SV2) 2 2 ∈ W. = (λ · k) · λ·X =λ· k· 3 3



 x1   X =  ...  xn

(SSV1) 0 ∈ W infatti 0 = 0 · v; (SSV2) per ogni w1 , w2 ∈ W abbiamo w1 = k1 · v e w2 = k2 · v, sommando otteniamo (SV3)

w1 + w2 = k1 · w + k2 · w = (k1 + k2 ) · w ∈ W .

(SSV3) per ogni w ∈ W e λ ∈ R abbiamo w = k ·v, moltiplicando otteniamo (SV2)

λ · w = λ · (k · v) = (λ · k) · v ∈ W .

5. Fissiamo un sistema di riferimento cartesiano (O; x, y) nel piano. Qui usiamo l’identificazione dei vettori geometrici con i punti e le loro coordinate. ◮ Una retta che contiene l’origine ha forma im◮ ◮ Abbiamo visto sopra ◮ plicita ax + by = 0, con (a, b) 6= (0, 0). ◮ ◮ che essa è un sottospazio vettoriale di R2 . I vettori geometrici corrispondenti formano un sottospazio vettoriale W di V 2E . Scegliamo un vettore geometrico non nullo v in W , allora W è formato da tutti i multipli di v. ◮ c 2014 Gennaro Amendola

Versione 1.0

◮ Lezione 8.

◮ ◮ Visto che essa contiene il punto O = (0, 0) il termine noto deve essere 0. Nel Punto 1 sopra l’equazione è 3x1 − 2x2 = 0. ◮ ◮ Punto 2 above. ◮ ◮ Si veda il Punto 4  above. Nel Punto 3 2 sopra il vettore è . 3

Lezione 12. Sottospazi vettoriali e sottospazi generati

12–4

Analogamente, un piano che contiene l’origine nello spazio è un sottospazio vettoriale di R3 , che corrisponde a un sottospazio vettoriale di V 3E .

Vedremo sotto che questo è un caso particolare di sottospazio generato.

Osservazione 12.6. I sottospazi vettoriali descritti nell’Esempio 12.5-4 sono formati dai valori di tutte le combinazioni lineari del vettore fissato v. Esempio 12.7. I seguenti sottoinsiemi W dello spazio vettoriale V non sono sottospazi vettoriali di V . n o 1. V = R2 e W = X ∈ R2 2x1 − 3 (x2 )3 + 1 = 0 . ◮ Verifichiamo che una delle tre condizioni della Proposizione 12.3 non è soddisfatta: (SSV1) 02 6∈ W infatti 2 · 0 − 3 · 03 + 1 6= 0.

2. V = Kn e W = {X ∈ Kn | p (x1 , . . . , xn ) = 0}, dove p è un polinomio con termine noto non nullo ◮. Verifichiamo che una delle tre condizioni della Proposizione 12.3 non è soddisfatta: ◮. (SSV1) 0n 6∈ W infatti p(0, . . . , 0) 6= 0 ◮

3. Analogamente a quanto abbiamo fatto nell’Esempio 12.5-5, abbiamo che, dopo aver fissato un sistema di riferimento cartesiano (O; x, y) nel piano, una retta che non contiene l’origine non è un sottospazio vettoriale di R2 , che corrisponde a un sottoinsieme di ◮ V 3E che non è un sottospazio vettoriale di V 2E . ◮ ◮ Lo stesso vale per un piano che non contiene l’origine nello spazio: esso non è un sottospazio vettoriale di R3 , che corrisponde a un sottoinsieme di V 3E che non è un sottospazio vettoriale di V 3E . n o 4. V = R2 e W = X ∈ R2 9x2 − (x1 )2 = 0 . Verifichiamo che una delle tre condizioni della Proposizione 12.3 non è soddisfatta:   3 (SSV3) il vettore colonna appartiene a W , infatti abbiamo 1     6 3 2 non = 9 · 1 − 3 = 0, ma il suo multiplo 2 · 2 1 appartiene a W , perché 9 · 2 − 62 6= 0.

Affinché W non sia un sottospazio vettoriale di V , è sufficiente che anche una sola delle condizioni della Proposizione 12.3 non sia verificata. ◮ Ricordiamo che x1 e x2 sono le coordinate   x1 del vettore colonna X, ossia X = x2 (Notazione 10.21).

◮ Ad esempio, 3x1 + x3 − x4 − 7 con K = R e n = 4, oppure i (x2 )3 + (2 − 3i)x4 − (x6 )2 + (−3 + i) con K = C e n = 7. ◮ ◮ Abbiamo che p(0, . . . , 0) è il termine noto di p, che non è nullo.

◮ ◮ ◮ Ciò segue dal Punto 2 sopra, infatti l’equazione della retta è ax+by +c = 0 con c 6= 0 (perché la retta non contiene O = (0, 0)).

Al contrario di quanto fatto sopra per il caso del termine noto non nullo, questo risultato non si può generalizzare a Kn (e nemmeno a Rn ), ossia tipicamente il luogo degli zeri di un polinomio di grado maggiore di uno non è un sottospazio vettoriale, ma in alcuni casi lo è (Esercizio 12.5-3 and 12.17-3).

Anche se questo insieme contiene l’origine, esso è una parabola e non è una retta, ossia non è dritta.

Proposizione 12.8. Sia V uno spazio vettoriale dotato di addizione + e moltiplicazione per scalare · su un campo K, e siano W 1 e W 2 due sottospazi vettoriali di V . Allora, l’intersezione W 1 ∩ W 2 è un sottospazio vettoriale di V . Dimostrazione. Dimostriamo le tre condizioni della Proposizione 12.3 per il sottoinsieme W 1 ∩ W 2 di V . ◮ (SSV1) Dimostriamo che 0 ∈ W 1 ∩ W 2 . Visto che abbiamo 0 ∈ W 1 e 0 ∈ W 2 perché W 1 e W 2 sono sottospazi vettoriali di V , abbiamo che 0 ∈ W 1 ∩ W 2 .

c 2014 Gennaro Amendola

Versione 1.0

Intersezione di sottospazi vettoriali

◮ Esse sono equivalenti al fatto che W 1 ∩W 2 è un sottospazio vettoriale di V .

Lezione 12. Sottospazi vettoriali e sottospazi generati

12–5

(SSV2) Per ogni v, w ∈ W 1 ∩ W 2 , dimostriamo che v + w ∈ W 1 ∩ W 2 . Visto che v, w ∈ W 1 e W 1 è un sottospazio vettoriale di V , abbiamo che v + w ∈ W 1 . Analogamente, visto che v, w ∈ W 2 e W 2 è un sottospazio vettoriale di V , abbiamo che v+w ∈ W 2 . Allora abbiamo che v + w ∈ W 1 ∩ W 2 .

(SSV3) Per ogni v ∈ W 1 ∩ W 2 and λ ∈ K; dimostriamo che λ · v ∈ W 1 ∩ W 2 . Visto che v ∈ W 1 e W 1 è un sottospazio vettoriale di V , abbiamo che λ·v ∈ W 1 . Analogamente, visto che v ∈ W 2 e W 2 è un sottospazio vettoriale di V , abbiamo che λ · v ∈ W 2 . Allora abbiamo che λ · v ∈ W 1 ∩ W 2 . Osservazione 12.9. Lo stesso risultato vale per l’intersezione di un numero qualsiasi di sottospazi vettoriali. Siano W 1 , W 2 , . . . , W k k sottospazi vettoriali di uno spazio vettoriale V ; allora l’intersezione W 1 ∩ W 2 ∩ · · · ∩ W k è un sottospazio vettoriale di V . Generalizzando ancora di più, lo stesso risultato vale anche per l’intersezione di infiniti sottospazi vettoriali. La dimostrazione di questi fatti è analoga a quella della Proposizione 12.8. Esempio 12.10. 1. Consideriamo i due sottospazi vettoriali   3 W 1 = X ∈ R 2x1 − 3x2 + x3 = 0 and W 2 = X ∈ R3 3x1 + x2 − x3 = 0 dello spazio vettoriale V = R3 . ◮ Per la Proposizione 12.8 their intersection  W 1 ∩ W 2 = X ∈ R3 2x1 − 3x2 + x3 = 0, 3x1 + x2 − x3 = 0 è un sottospazio vettoriale di V . ◮

2. Consideriamo m sottospazi vettoriali W 1 = {X ∈ Kn | p1 (x1 , . . . , xn ) = 0}, W 2 = {X ∈ Kn | p2 (x1 , . . . , xn ) = 0}, .. .

◮ W 1 e W 2 sono sottospazi vettoriali per l’Esempio 12.5-2.

◮ Possiamo verificare che  X ∈ R3 2x1 − 3x2 + x3 = 0, 3x1 + x2 − x3 = 0 3 è un sottospazio vettoriale di R esplicitamente come abbiamo fatto nell’Esempio 12.5-1, ma non è necessario: infatti per la Proposizione 12.8 è sufficiente notare che esso è l’intersezione dei due sottospazi vettoriali W 1 e W 2 di R3 .

W m = {X ∈ Kn | pm (x1 , . . . , xn ) = 0}

dello spazio vettoriale V = Kn . ◮ Per l’Osservazione 12.9 their intersection W 1 ∩W 2 ∩· · ·∩W m = {X ∈ Kn | pi (x1 , . . . , xn ) = 0 ∀i = 1, 2, . . . , m} è un sottospazio vettoriale di V . ◮ 2 E

3. In V l’intersezione di due rette che sono sottospazi vettoriali è ◮ un sottospazio vettoriale. In realtà, le due rette contengono 0, ◮ quindi l’intersezione è o solamente {0}, o la retta stessa (se le due ◮ rette coincidono). ◮ ◮ 3 Anche in V E l’intersezione di due sottospazi vettoriali è un sottospazio vettoriale. Se abbiamo due rette la situazione è la stessa come prima: l’intersezione è o solamente {0}, o la retta stessa. Se abbiamo una retta e un piano, essi contengono 0, quindi l’intersezione è o solamente {0}, o la retta stessa (se la retta è contenuta nel piano). ◮ Se, invece, abbiamo due piani, essi contengono 0, quindi l’intersezione è o una retta, o il piano stesso (se i due piani coincidono). ◮ c 2014 Gennaro Amendola

Versione 1.0

◮ W 1 , W 2 ,. . . , W m sono sottospazi vettoriali per l’Esempio 12.5-2.

◮ Anche qui possiamo fare una verifica esplicita come abbiamo fatto nell’Esempio 12.52, ma non è necessario: infatti per l’Osservazione 12.9 è sufficiente notare che W 1 ∩ W 2 ∩ · · · ∩ W m è l’intersezione degli m sottospazi vettoriali W 1 , W 2 ,. . . , W m di Kn . ◮ ◮ Esempi 12.5-5 e 12.7-3. ◮ ◮ ◮ Si veda la discussione sulla mutua posizione di rette nel piano nella Lezione 7.

◮ Si veda la discussione sulla mutua posizione di una retta rispetto a un piano nello spazio nella Lezione 7. ◮ Si veda la discussione sulla mutua posizione di piani nello spazio nella Lezione 7.

Lezione 12. Sottospazi vettoriali e sottospazi generati

12–6

Osservazione 12.11. L’unione di due sottospazi vettoriali di uno spazio vettoriale V è un sottospazio vettoriale di V se e solo se uno dei due sottospazi è contenuto nell’altro. Non daremo la dimostrazione di questo fatto, anche se non è difficile. Esempio 12.12. L’unione dei due sottospazi vettoriali   W 1 = X ∈ R2 x2 = 0 and W 2 = W 2 = X ∈ R2 x1 = 0 di R2 è l’insieme

 W = W 1 ∪ W 2 = X ∈ R 2 x1 = 0 o x2 = 0 .

L’unione W non è un sottospazio vettoriale di R2 , infatti non soddisfa la seconda proprietà della Proposizione 12.3: ◮   1 (SSV2) il vettore colonna appartiene a W 1 e il vettore colonna 0     0 1 appartiene a W 2 , ma la loro somma non appartiene 1 1 all’unione W .

12.2

◮ Soddisfa le altre due proprietà: (SSV1) e (SSV3)

Sottospazi generati

In this section useremo le combinazioni lineari per definire spazi vettoriali, come abbiamo visto nell’Esempio 12.6. Definizione 12.13. Sia X un sottoinsieme di uno spazio vettoriale V su un campo K. L’insieme dei risultati delle combinazioni lineari di vettori di X con coefficienti in K è indicato con Span(X), ossia ◮

Span In alcuni libri di testo Span(X) è indicato anche con hXi.

Span(X) := {λ1 v 1 + λ2 v2 + · · · + λn v n ∈ V | n > 0, v 1 , v 2 , . . . , v n ∈ X, λ1 , λ2 , . . . , λn ∈ K}.

Osservazione 12.14. 1. Abbiamo Span (∅) = {0}. Infatti, se X = ∅, c’è una sola combinazione lineare che dobbiamo considerare (quella formata da zero vettori), e il suo valore è 0 ◮.

◮ Il caso n = 0 corrisponde all’unica combinazione lineare di zero vettori. ◮ Definizione 11.1.

2. Abbiamo X ⊂ Span(X). Infatti, se v ∈ X allora il risultato della combinazione lineare 1 · v = v appartiene a Span(X).

3. Se l’insieme X è finito, ossia X = {v 1 , v 2 , . . . , v n }, allora abbiamo  Span {v 1 , v 2 , . . . , v n } = {λ1 v 1 + λ2 v 2 + · · · + λn v n ∈ V | λ1 , λ2 , . . . , λn ∈ K}. Se invece X è infinito non possiamo usare tutti i vettori di X in un’unica combinazione lineare.

Notazione 12.15. Per semplicità, se scriviamo l’insieme X per elenca- Span  zione, evitiamo di usare le parentesi graffe: invece di scrivere Span {v 1 , v 2 , . . . , v n } , scriveremo Span (v 1 , v 2 , . . . , v n ) . Esempio 12.16. Riscriviamo alcuni esempi già visti utilizzando la notazione introdotta ora e facciamo alcuni esempi nuovi.   2 1. Riferendoci all’Esempio 12.5-3 possiamo scrivere W = Span . 3 2. Riferendoci all’Esempio 12.5-4 possiamo scrivere W = Span(v). c 2014 Gennaro Amendola

Versione 1.0

Lezione 12. Sottospazi vettoriali e sottospazi generati

12–7

3. Abbiamo           −2 3 3 −2   Span −1 ,  0  = a −1 + b  0  ∈ R3 a, b ∈ R .   3 4 4 3

4. Riferendoci all’Esempio 12.5-5 (anche per la notazione), abbiamo che una retta (nel piano o nello spazio) che contiene l’origine è Span(v) per uno qualsiasi dei suoi vettori non nulli v. Dimostreremo che, per un qualsiasi piano nello spazio, ci sono due ◮ vettori ◮, diciamo v1 e v 2 , tali che il piano è Span (v 1 , v 2 ). ◮               2 −1 1 2 −1 1 5. Abbiamo Span , , = a +b +c· a, b, c ∈ R . 3 0 1 3 0 1

6. Abbiamo K6m [x] = Span (1, x, . . . , xm ), infatti un generico polinomio di grado al più m è am xm + am−1 xm−1 + · · · + a1 x + a0 .

◮ Non univocamente determinati. ◮ ◮ Per esempio, si veda il Punto 3 sopra.

Esempio 12.17. Nel precedente esempio abbiamo considerato solo un numero finito di vettori. Consideriamo ora il caso con infiniti vettori.   k 1. Considera i vettori −2k con k ∈ Z. Possiamo considerare 3k    k   Span  −2k ∈ R3 k ∈ Z  ,   3k   k i cui elementi sono le combinazioni lineari dei vettori −2k: ad 3k           −4 3 −1 5 1 esempio, 7 −2 − 2 −10, e  2  − −6 + 3  8 . −12 9 −3 15 3   h 2. Abbiamo K[x] = Span x h ∈ N , infatti un generico polino◮ La differenza con l’Esempio 12.16-6 è che mio è an xn + an−1 xn−1 + · · · + a1 x + a0 . ◮ ora non abbiamo un limite superiore per il grado dei polinomi, e quindi per il grado Abbiamo deio monomi xh . n h {p(x) ∈ K[x] | tutti i termini hanno grado pari} = Span x h ∈ N, h pari , infatti un generico polinomio che ha solo termini di grado pari è a2n x2n + a2n−2 x2n−2 + · · · + a2 x2 + a0 . ◮

◮ Per esempio, 3x6 − x4 + 5.

Proposizione 12.18. Sia X un sottoinsieme di uno spazio vettoriale V su un campo K. L’insieme Span(X) è un sottospazio vettoriale di V .

Dimostrazione. (∗∗) Se X = ∅, abbiamo Span(∅) = {0}, che è un sottospazio vettoriale di V . ◮ Supponiamo quindi che X 6= ∅ e dimostriamo le tre proprietà della Proposizione 12.3 equivalenti alla definizione di sottospazio vettoriale. ◮ (SSV1) Visto che X non è vuoto, scegliamo un vettore v ∈ X; allora abbiamo che 0 = 0v ∈ Span(X).

c 2014 Gennaro Amendola

Versione 1.0

◮ Esempio 12.2. ◮ Esse sono equivalenti al fatto che W 1 ∩W 2 è un sottospazio vettoriale di V .

Lezione 12. Sottospazi vettoriali e sottospazi generati

12–8

(SSV2) Consideriamo due vettori, v, v ′ ∈ Span(X), ossia v = λ1 v 1 +λ2 v 2 +· · ·+λn v n

Gli scalari λ∗ e λ′∗ sono elementi di K.

e v ′ = λ′1 v′1 +λ′2 v ′2 +· · ·+λ′m v ′m

con v 1 , v 2 , . . . , v n , v ′1 , v ′2 , . . . , v ′m ∈ X; allora abbiamo

v+v ′ = λ1 v 1 +λ2 v 2 +· · ·+λn v n +λ′1 v′1 +λ′2 v ′2 +· · ·+λ′m v ′m ∈ Span(X). (SSV3) Consideriamo un vettore v ∈ Span(X), ossia

Gli scalari λ∗ sono elementi di K.

v = λ1 v 1 + λ2 v 2 + · · · + λ n v n

con v 1 , v 2 , . . . , v n ∈ X e λ ∈ K; allora abbiamo

λv = (λλ1 ) v 1 + (λλ2 ) v 2 + · · · + (λλn ) v n ∈ Span(X).

Definizione 12.19. Sia X un sottoinsieme di uno spazio vettoriale V . Il sottospazio vettoriale Span(X) di V è detto sottospazio vettoriale generato da X. L’insieme X e i vettori di X sono detti generare il sottospazio vettoriale Span(X). Esempio 12.20. Tutti gli insiemi degli Esempi 12.16 e 12.17 sono sottospazi vettoriali dello spazio vettoriale in cui sono contenuti ◮. Per alcuni ◮ , ma, comunque, non è di essi l’avevamo già dimostrato esplicitamente ◮ più necessario: è sufficiente applicare la Proposizione 12.18. Può succedere che non tutti i vettori di X sono “necessari” per generare Span(X) ◮, inoltre insiemi di vettori completamente diversi possono generare lo stesso sottospazio vettoriale, come si può vedere nel seguente esempio.

Sottospazio vettoriale generato

◮ A seconda dei casi, abbiamo che lo spazio vettoriale è V 2E , V 3E , R2 , R3 , K[x], K6m [x] o un V generico. ◮ ◮ Ad esempio, per l’Esempio 12.16-1 l’abbiamo dimostrato nell’Esempio 12.5-3. ◮ Non possiamo rimuovere tutti i vettori perché altrimenti otterremmo Span(∅) = {0}. Vedremo sotto quali vettori possono essere rimossi.

Esempio 12.21. 1. Fissiamo un vettore v non nullo di uno spazio vettoriale V e il sottospazio vettoriale W = Span(0, v, 2v) di V . Abbiamo W = Span(v, 2v), infatti il risultato di una combinazione lineare a0 + bv + c(2v) è anche il risultato della combinazione lineare bv + c(2v), mentre, viceversa, il risultato di una combinazione lineare bv + c(2v) è anche il risultato della combinazione ◮ Possiamo scegliere arbitrariamente il coeflineare 0 · 0 + bv + c(2v) ◮. ficiente a del vettore 0. Abbiamo W = Span(v), infatti il risultato di una combinazione lineare bv + c(2v) ◮ è anche il risultato della combinazione lineare ◮ Stiamo usando il fatto che W = (b+2c)v, mentre, viceversa, il risultato di una combinazione lineare Span(v, 2v). bv è anche il risultato della combinazione lineare bv + 0 · (2v). Analogamente, abbiamo W = Span(2v), infatti il risultato di una combinazione lineare bv  + c(2v) è anche il risultato della combib nazione lineare 2 + c (2v), mentre, viceversa, il risultato di una combinazione lineare c(2v) è anche il risultato della combinazione lineare 0 · v + c(2v).       2 −1 1 2. Consideriamo il sottospazio vettoriale W = Span , , . 3 0 1     −1 2 , infatti il risultato di una , Abbiamo W = Span 0 3       2 −1 1 combinazione lineare a +b +c è anche il risultato 3 0 1           2 −1 ◮ , mentre, ◮ Abbiamo 11 = 1 · 23 + 1 · −1 . della combinazione lineare (a + 1) + (b + 1) 0 3 0 c 2014 Gennaro Amendola

Versione 1.0

Lezione 12. Sottospazi vettoriali e sottospazi generati

12–9

    2 −1 viceversa, il risultato di una combinazione lineare a +b 3 0     2 −1 è anche il risultato della combinazione lineare a +b + 3 0   1 0· . 1     2 1 Analogamente, possiamo dimostrare che W = Span , 3 1     −1 1 e che W = Span , .◮ 0 1

◮ Si vedano gli Esercizi 12.6 e 12.15.

L’enunciato della Proposizione 12.18 vale anche se sostituiamo V con un suo sottospazio. Proposizione 12.22. Sia W un sottospazio vettoriale di uno spazio vettoriale V su un campo K, e sia X un sottoinsieme di W . L’insieme Span(X) è un sottospazio vettoriale di W . In particolare, si ha Span(X) ⊂ W . Dimostrazione. Il fatto che Span(X) ⊂ W segue dal fatto che W è un sottospazio vettoriale di V e quindi un qualsiasi elemento λ1 v 1 + λ2 v 2 + · · · + λn vn (con v 1 , v 2 , . . . , v n ∈ X ⊂ W e λ1 , λ2 , . . . , λn ∈ K) di ◮ W è un sottospazio vettoriale di V , Span(X) appartiene a W ◮. l’addizione e la moltiplicazio◮ Adesso applichiamo la Proposizione 12.18 ◮ e otteneniamo che Span(X) quindi ne per scalare sono operazioni su esso è un sottospazio vettoriale di W . (Proposizione 12.3). Un semplice corollario della proposizione precedente è il seguente.

◮ ◮ Sostituendo V con W .

Corollario 12.23. Siano v1 , v 2 , . . . , v n e v vettori di uno spazio vettoriale V . Abbiamo che v ∈ Span (v 1 , v 2 , . . . , v n )

se e solo se

Span (v 1 , v 2 , . . . , v n , v) = Span (v1 , v 2 , . . . , v n ) .

Non daremo la dimostrazione di questo corollario, anche se non è difficile.  Esempio 12.24. 1. Consideriamo il sottospazio vettoriale W = X ∈ R2 3x1 − 2x2 = 0   2 2 ◮ di R . Il vettore colonna appartiene a W , quindi la Propo- ◮ Esempio 12.5-1. 3 ◮ Esempi 12.5-3 e 12.16-1. sizione 12.22 ci assicura che tutto ◮       2 2 ∈ R2 k ∈ R = k· Span 3 3 è contenuto in W . ◮

2. Riferendoci all’Esempio 12.21-2, visto che abbiamo       −1 2 1 , , ∈ Span 0 3 1

◮ che ◮

il corollario 12.23 ci assicura che           2 −1 1 2 −1 Span , , ⊂ Span , , 3 0 1 3 0 ◮ senza fare nessun calcolo. ◮ ◮

c 2014 Gennaro Amendola

Versione 1.0

◮ In questo caso, possiamo anche dimostrare che vale l’uguaglianza, infatti vale anche l’altra inclusione. Notando che i vettori   x1 colonna che appartengono a W dex2 vono soddisfare l’equazione3x1− 2x 2 = 0,  α x1 e risolvendola, otteniamo = 3 x2 α 2 con α R. Esso è un elemento di ∈ 2 Span , infatti possiamo scriverlo 3    2 come 21 α · . Tuttavia, la doppia in3 clusione può non valere in generale, perché la Proposizione 12.22 implica solo una inclusione.       1 2 −1 ◮ ◮ 1 =1· 3 +1· 0 .

◮ ◮ ◮ L’altra inclusione è ovvia per definizione.

Lezione 12. Sottospazi vettoriali e sottospazi generati

12–10

Osservazione 12.25. Sia X un sottoinsieme di uno spazio vettoriale V . Il sottospazio vettoriale Span(X) di V è il più piccolo sottospazio vettoriale di V che contiene X. Non daremo la dimostrazione di questo fatto, anche se non è difficile.  Osservazione 12.26. Abbiamo che Span Span(X) = Span(X). Infatti, per la Proposizione 12.22, dove  sostituiamo Span(X) sia a W che a X, abbiamo Span Span(X) ⊂ Span(X). L’altra inclusione,  Span(X) ⊂ Span Span(X) , è ovvia ◮.

◮ Osservazione 12.14-2.

Definizione 12.27. Un sottospazio vettoriale W di uno spazio vet- Sottospazio vettoriale finitamente toriale V è detto finitamente generato se esiste un sottoinsieme finito generato {w1 , w 2 , . . . , wn } di W tale che Span (w1 , w 2 , . . . , w n ) = W . Uno spazio vettoriale V è detto finitamente generato se V , pensato Spazio vettoriale finitamente generacome sottospazio vettoriale di sé stesso, è finitamente generato, ossia se to esiste un sottoinsieme finito {v1 , v 2 , . . . , v n } di V tale che Span (v 1 , v 2 , . . . , v n ) = V. Osservazione 12.28. Visto che l’insieme vuoto è finito, lo spazio vettoriale {0} = Span (∅) è finitamente generato. 2 è finitamente genera1. Lo spazio vettoriale   R  1 0 to, infatti abbiamo R2 = Span , perché un generi0 1   x1 co vettore ∈ R2 è il risultato della combinazione lineare x2     1 0 ◮ x1 + x2 . 0 1

Esempio 12.29.

2. Lo spazio vettoriale Kn è generato da n vettori e quindi è finitamente generato. La dimostrazione è analoga a quella dell’esempio precedente: visto che sarà una parte della dimostrazione della Proposizione 14.12, adesso la omettiamo. ◮ 3. Lo spazio vettoriale dei polinomi K[x1 , x2 , . . . , xn ] non è finitamente generato. Infatti, supponiamo, per assurdo, che lo sia, ossia K[x1 , x2 , . . . , xn ] = Span (p1 , p2 , . . . , pm ). Il grado del risultato di una qualsiasi combinazione lineare dei polinomi p1 , p2 , . . . , pm è al più il massimo grado dei polinomi p∗ , diciamo d, quindi il polinomio xd+1 non appartiene a Span (p1 , p2 , . . . , pm ), e quindi abbiamo 1 una contraddizione. 4. Invece, lo spazio vettoriale K6m [x] è finitamente generato. Infatti, abbiamo K6m [x] = Span (1, x, . . . , xm ). ◮ Lo stesso vale per K6m[x1 , x2 , . . . , xn ].

c 2014 Gennaro Amendola

Versione 1.0

◮ Abbiamo solo che R2 ⊂  dimostrato   1 0 Span , , ma il viceversa è ovvio 0 1 (Definizione 12.13).

Questa è una generalizzazione dell’esempio precedente. ◮ Tuttavia, non è difficile, quindi un lettore volenteroso può provare a farla da solo.

◮ Esempio 12.16-6.

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 12/S1 SOTTOSPAZI VETTORIALI E SOTTOSPAZI GENERATI 1

Sessione di Studio 12.1 Sottospazi vettoriali e sottospazi generati

Lezione 12. Sottospazi vettoriali e sottospazi generati

12–11

Sessione di Studio 12.1  Esercizio 12.1. Considera l’insieme W = Span x2 + x + 1, x2 − x . • Scrivi alcuni elementi di W . • Scrivi un generico elemento di W .

• W è un sottospazio vettoriale di R[x]?

• W è finitamente generato?

  Soluzione. • Alcuni elementi sono 3 x2 + x + 1 + 2 x2 − x = 5x2 + x + 3 e −2 x2 + x + 1 = −2x2 − 2x − 2.   • Un generico elemento è a x2 + x + 1 + b x2 − x . ◮ • Sì, per la Proposizione 12.18.

◮ Può essere anche scritto (a + b)x2 + (a − b)x + a.

• Sì, perché è generato da due polinomi: x2 + x + 1 e x2 − x.       2 −1 1 Esercizio 12.2. Il vettore colonna 3 appartiene a Span  0  , 1? 0 1 2     −1 1     Soluzione. Un vettore generico di Span 0 , 1 è 1 2     −1 1 a  0  + b 1 con a, b ∈ R. 2 1       −1 1 2 Il vettore colonna 3 appartiene a Span  0  , 1 se e solo se 2 0 1       2 −1 1 l’equazione in forma vettoriale a  0  + b 1 = 3 ha un soluzio0 2 1   2 ne. L’equazione non ha soluzione ◮, quindi il vettore colonna 3 non ◮ Abbiamo visto come risolvere le equazioni in forma vettoriale nella Lezione 10. 0     −1 1 appartiene a Span  0  , 1. 2 1 Esercizio 12.3. Trova un insieme X tale che il sottospazio vettoriale  W = X ∈ R4 x1 − x3 + x4 = 0, 2x1 + x2 − x4 = 0

di R4 è uguale a Span(X).



x1 − x3 + x4 = 0 sono (x1 , x2 , x3 , x4 ) = 2x1 + x2 − x4 = 0 (α − β, −2α + 3β, α, β) con α, β ∈ R, ◮ quindi un generico vettore di ◮ Abbiamo Soluzione. Le soluzioni del sistema

visto come risolvere i sistemi nella Lezione 4.

c 2014 Gennaro Amendola

Versione 1.0

Lezione 12. Sottospazi vettoriali e sottospazi generati

12–12



 α−β −2α + 3β   con α, β ∈ R. Il vettore generico di W può esseW è    α β     1 −1 −2 3    re riscritto come α   1  + β  0  con α, β ∈ R, cosicché abbiamo 1 0         1 −1 1 −1         −2  3    ,   e quindi X = −2 ,  3  . W = Span   1   0   1   0       0 1 0 1    z1 2 ∈ C iz1 + 2z2 = 0 Esercizio 12.4. Il sottospazio vettoriale W = z2 di C2 è finitamente generato? Soluzione. Dall’equazione iz1 + 2z2 = 0 otteniamo z2 = − 2i z1 , dove la  prima  coordinata z1 ∈ C è libera, quindi un generico vettore di W è α con α ∈ C. Il vettore generico di W può essere riscritto come − 2i α     1 1 α con α ∈ C, cosicché abbiamo W = Span e quindi W i −2 − 2i è finitamente generato. Esercizio 12.5. Quali dei seguenti sono sottospazi vettoriali del rispettivo spazio vettoriale? 1. {p(t) ∈ C[t] | p(0) = 3} di C[t].  2. f ∈ Funz (I, V ) f (x) = 0 in Funz (I, V ), dove x è un elemento fissato di I. ◮ n o  t 3. x1 x2 x3 ∈ R3 (x1 )2 + (x2 )2 = 0 di R3 .

Soluzione. 1. No. Abbiamo che il polinomio nullo p0 assume sempre il valore 0, cosicché abbiamo p0 (0) = 0 6= 3 e quindi p0 non appartiene a {p(t) ∈ C[t] | p(0) = 3}. Visto che l’elemento neutro per l’addizione di C[t] non appartiene a {p(t) ∈ C[t] | p(0) = 3}, l’insieme {p(t) ∈ C[t] | p(0) = 3} non è un sottospazio vettoriale di C[t]. ◮  2. Sì. Controlliamo che f ∈ Funz (I, V ) f (x) = 0 soddisfa le tre condizioni della Proposizione 12.3.

◮ Esempio 10.6-6 e Esercizio 10.1.

◮ La prima condizione della Proposizione 12.3 is not satisfied.

(SSV1) L’elemento neutro di Funz (I, V ), che è la funzione identi  camente nulla f ∈ Funz (I, V ), appartiene a f ∈ Funz (I, V ) f (x) = 0 0 , infatti f0 (x) = 0.  (SSV2) Per ogni g, h ∈ f ∈ Funz (I, V ) f (x) = 0 abbiamo g + h ∈ f ∈ Funz (I, V ) f (x) = 0 , infatti visto che g (x) = 0 e h (x) = 0 abbiamo (g + h) (x) = g (x)+ h (x) = ◮ Nella prima uguaglianza abbiamo usato la 0 + 0 = 0. ◮

c 2014 Gennaro Amendola

Versione 1.0

definizione dell’addizione in Funz (I, V ), e nell’ultima uguaglianza il fatto che 0 è l’elemento neutro dell’addizione in V .

Lezione 12. Sottospazi vettoriali e sottospazi generati

12–13

 (SSV3) Per ogni g ∈ f ∈ Funz (I, V ) f (x) = 0 and λ ∈ K abbiamo λ·g ∈ f ∈ Funz (I, V ) f (x) = 0 , infatti visto che g (x) = 0 abbiamo (λ · g) (x) = λ · g (x) = λ0 = 0. ◮ o n  t 3. Sì. L’insieme x1 x2 x3 ∈ R3 (x1 )2 + (x2 )2 = 0 è forma t to dai vettori colonna x1 x2 x3 tali che x1 = x2 = 0, ossia  t 0 0 α con α ∈ R. Questi vettori possono essere riscritti come    t t α · 0 0 1 con α ∈ R, quindi l’insieme è Span 0 0 1 , che è un sottospazio vettoriale di R3 per la Proposizione 12.18. ◮

Esercizio 12.6. Dimostra con la definizione che           2 −1 1 2 1 Span , , = Span , . 3 0 1 3 1       1 2 −1 . −3· =1· Soluzione. Cominciamo notando che 1 3 0           2 −1 1 2 1 Abbiamo Span , , = Span , , perché 3 0 1 3 1       2 −1 1 il risultato di una combinazione lineare a +b +c è anche 3 0 1     2 1 il risultato della combinazione lineare (a + 1) + (b − 3) , mentre, 3 1     2 1 viceversa, il risultato di una combinazione lineare a +b è anche 3 1       2 −1 1 il risultato della combinazione lineare a +0· +b . 3 0 1 Esercizio 12.7. Il sottospazio vettoriale    k   Span  −2k ∈ R3 k ∈ Z  ,   3k

di R3 è finitamente generato? ◮

◮ Confronta con l’Esempio 12.7-4.

Esempio 12.21-2.

◮ Esempio 12.17-1.

Soluzione. Abbiamo      k 1   Span  −2k ∈ R3 k ∈ Z  = Span −2 ,   3k 3 infatti

     k 1   3       Span −2k ∈ R k ∈ Z ⊂ Span −2   3k 3     k 1 vale perché ogni vettore −2k appartiene a Span −2, e 3k 3      k 1   3       Span −2k ∈ R k ∈ Z ⊃ Span −2   3k 3

c 2014 Gennaro Amendola

◮ Nella prima uguaglianza abbiamo usato la definizione della moltiplicazione per scalare in Funz (I, V ), e nell’ultima uguaglianza una proprietà di 0 in V .

Versione 1.0

Lezione 12. Sottospazi vettoriali e sottospazi generati

12–14

       k 1 k   vale perché −2 è uno dei vettori −2k . Allora, l’insieme Span  −2k  ∈ R3 k ∈ Z    3k 3 3k è generato da un vettore, e quindi è finitamente generato. 

    2 1 Esercizio 12.8. Dimostra che = Span , . 3 1     2 1 2 Soluzione. Chiaramente abbiamo R ⊃ Span , . Inoltre, 3 1       x1 1 2 2 , perché ogni vettore colonna di , abbiamo R ⊂ Span 1 x2 3     2 1 R3 è il risultato di una combinazione lineare dei vettori e , in3 1       x1 2 1 fatti l’equazione in forma vettoriale =a +b nelle variabili x2 3 1 a, b ∈ R ha soluzione (a, b) = (x2 − x1 , 3x1 − 2x2 ). R2

Esercizio 12.9. 1. Dimostra che 1 e i generano lo spazio vettoriale C sul campo R. 2. Dimostra che 1 genera lo spazio vettoriale C sul campo C. Soluzione. 1. Ogni numero complesso può essere scritto come il risultato della combinazione lineare a · 1 + b · i con a, b ∈ R. 2. Ogni numero complesso z ◮ può essere scritto come il risultato della ◮. combinazione lineare z · 1 dove z ∈ C ◮

c 2014 Gennaro Amendola

Versione 1.0

◮ Qui z è pensato come elemento dello spazio vettoriale C. ◮ ◮ Qui, invece, z è pensato come elemento del campo C.

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 12/S2 SOTTOSPAZI VETTORIALI E SOTTOSPAZI GENERATI 1

Sessione di Studio 12.2 Sottospazi vettoriali e sottospazi generati

Lezione 12. Sottospazi vettoriali e sottospazi generati

12–15

Sessione di Studio 12.2 Esercizio 12.10.

Esercizio 12.11.

Esercizio 12.12.

Esercizio 12.13.



     1 1 0  2   0   1        Scrivi alcuni vettori di Span  −1 , −2 , −3. 3 0 −4       1 4 0       Scrivi un generico elemento di Span 2 , 0 , 0. 3 −1 0       1 1 5 appartiene a Span , ? Il vettore colonna 4 1 4       2 −1 1 Il vettore colonna 3 appartiene a Span  0  , 1? 7 1 2

 Esercizio 12.14. Il polinomio 2x4 +x2 −x+7 appartiene a Span x − x2 , 2 + x2 , x4 − 3x2 + 1 ?

Esercizio 12.15. Dimostra con la definizione che Esempio 12.21-2.           2 −1 1 −1 1 Span , , = Span , . 3 0 1 0 1     x  3   y ∈ R x + 2y − 5z = 0 Esercizio 12.16. Considera i sottoinsiemi W 1 =   z     x  3   y ∈ R 3x − y − z = 0, x − y + z = 0 of R3 . e W2 =   z 1. Scrivi alcuni elementi di W 1 e W 2 .

2. W 1 e W 2 sono sottospazi vettoriali di R3 ? 3. Trova insiemi X1 e X2 tali che W 1 = Span (X1 ) e W 2 = Span (X2 ). 4. W 1 e W 2 sono finitamente generati? 5. La loro intersezione W 1 ∩ W 2 è un sottospazio vettoriale di R3 ? 6. Trova un insieme X tale che W 1 ∩ W 2 = Span(X).

Esercizio 12.17. Quali dei seguenti sono sottospazi vettoriali del rispettivo spazio vettoriale?    a+1 2 1. ∈ R a ∈ R di R2 . 3a     3+i 3i     −1 , 4  di C3 . 2. Span 1−i 0     x1  3. x2  ∈ K3 (3x1 − x2 + x3 )2 = 0 of K3 .   x3 4. {X ∈ Kn | 0 = 0} di Kn .

c 2014 Gennaro Amendola

Versione 1.0

Lezione 12. Sottospazi vettoriali e sottospazi generati

12–16



     1 1 0 2 0 1      Risultato dell’Esercizio 12.10.  −1, −2, −3, 3 0 −4             1 1 0 3 1 1 2 0 1 1 2 0   + 2   −   =  , 0   + 0   = 04 . −1 −2 −3 −2 −1 −2 3 0 −4 7 3 0       1 4 0      Risultato dell’Esercizio 12.11. a 2 +b 0 +c 0 con a, b, c ∈ 3 −1 0 ◮ R. Risultato dell’Esercizio 12.12. Sì. ◮ Risultato dell’Esercizio 12.13. Sì. ◮

Risultato dell’Esercizio 12.14. No.

Questo esercizio non ha un’unica soluzione, quindi il lettore può trovare una soluzione diversa.

◮ Nota che l’ultimo addendo è 03 , cosicché esso non dà contributo e quindi il generico elemento può anche essere scritto come     1 4 a 2 + b  0  con a, b ∈ R. 3 −1 ◮ ◮ Confronta con l’Esercizio 12.2.

Risultato 12.15. Scrivi ogni combinazione    dell’Esercizio     lineare   di Esempio 12.21-2 e Esercizio 12.6. 2 −1 1 −1 1 , e come una combinazione lineare di e ,e 3 0 1 0 1 viceversa.       2 1 0      Risultato dell’Esercizio 12.16. 1. Ad esempio, −1 , 2 , 0 ∈ 0 1 0 Questo esercizio non ha un’unica soluzione,     quindi il lettore può trovare una soluzione 0 1 diversa. W 1 e 2 , 0 ∈ W 2 . 0 1 2. Sì.

      5   1   −2     e X2 = 2 . 3. Ad esempio, X1 = 1 , 0     1 1 0

Questo esercizio non ha un’unica soluzione, quindi il lettore può trovare una soluzione diversa.

4. Sì. 5. Sì.

    1  6. X = 2 . ◮   1

Risultato dell’Esercizio 12.17.

Questo esercizio non ha un’unica soluzione, quindi il lettore può trovare una soluzione diversa. ◮ 1. No. ◮

◮ In questo caso abbiamo W 1 = W 1 ∩ W 1 , ma nota che ciò può non succedere in generale.

2. Sì. ◮ 3. Sì. ◮ ◮

◮ ◮ Non contiene 02 .     x1  ◮ 2 3   ◮ ◮  x2 ∈ K (3x1 − x2 + x3 ) = 0 = x  3    x1  x2  ∈ K3 3x1 − x2 + x3 = 0 .   x3



◮ 4. Sì. ◮

◮ Confronta con l’Esempio 12.7-4.

◮ ◮ {X ∈ Kn | 0 = 0} = Kn .

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 12/S3 SOTTOSPAZI VETTORIALI E SOTTOSPAZI GENERATI 1

Sessione di Studio 12.3

Sottospazi vettoriali e sottospazi generati

Lezione 12. Sottospazi vettoriali e sottospazi generati

12–17

Sessione di Studio 12.3 Letture supplementari possono essere le seguenti: • http://it.wikipedia.org/wiki/Sottospazio_vettoriale • http://it.wikipedia.org/wiki/Copertura_lineare

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 12/S3 Sottospazi vettoriali e sottospazi generati 3

Sessione di Studio 12.3 Quiz

Sottospazi vettoriali e sottospazi generati

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 12/S3 Sottospazi vettoriali e sottospazi generati 3

• Risolvere il seguente quiz a risposta multipla in cui per ogni domanda una sola risposta è giusta. • Rivedere le risposte del quiz.

Lezione 13

Dipendenza e indipendenza lineare In questa lezione ci occuperemo di dipendenza e indipendenza lineare. Lo scopo è di capire da un lato se tutti i vettori che generano un sottospazio vettoriale sono necessari per generarlo o no, e dall’altro se un vettore è il risultato di un’unica combinazione lineare di altri vettori.

13.1

Dipendenza e indipendenza lineare

Abbiamo visto nell’Osservazione 12.14-3 che il sottospazio generato da un numero finito di vettori {v 1 , v 2 , . . . , v n } coincide con l’insieme dei valori delle combinazioni lineari dei vettori v 1 , v 2 , . . . , v n . Nell’Esempio 11.4 abbiamo visto che può succedere che un vettore di Span (v 1 , v 2 , . . . , v n ) possa essere espresso come il risultato di più combinazioni lineari dei vettori v 1 , v 2 , . . . , v n . Ciò non succede sempre, come mostrato nel seguente esempio. Esempio 13.1. Il vettore 02 ∈ R2 può essere scritto in unmodo solo  2 1 come risultato di una combinazione lineare dei vettori e , infatti 3 1       2 1 0 l’equazione in forma vettoriale x +y = ha solo la soluzione 3 1 0 (x, y) = (0, 0) ◮. Il vettore nullo è sempre il risultato della combinazione lineare dei vettori v 1 , v 2 , . . . , v n con tutti i coefficienti nulli. Il fatto che esso si possa esprimere, o meno, come il risultato di altre combinazioni lineari è una caratteristica importante dei vettori v 1 , v 2 , . . . , v n . Diamo quindi la seguente definizione. Definizione 13.2. Sia V uno spazio vettoriale su un campo K, e siano v 1 , v 2 , . . . , v n vettori di V . • I vettori v 1 , v 2 , . . . , v n sono detti linearmente indipendenti se il vettore nullo è il risultato di una sola combinazione lineare dei vettori v 1 , v 2 , . . . , v n (quella con tutti i coefficienti nulli), ossia se, comunque vengono scelti i coefficienti λ1 , λ2 , . . . , λn ∈ K non tutti c 2014 Gennaro Amendola

Versione 1.0

◮ Abbiamo visto come risolvere le equazioni in forma vettoriale nella Lezione 10.

Stiamo considerando il vettore 0 perché esso appartiene sempre a {v 1 , v2 , . . . , v n }: vedremo nel seguito che non sarà restrittivo considerare solamente il vettore 0 (Proposizione 13.15).

Indipendenza lineare

Lezione 13. Dipendenza e indipendenza lineare

13–2

nulli, il risultato della combinazione lineare λ1 v 1 +λ2 v 2 +· · ·+λn v n non è il vettore nullo. • I vettori v 1 , v 2 , . . . , v n sono detti linearmente dipendenti se il vettore nullo è il risultato di una combinazione lineare dei vettori v 1 , v 2 , . . . , v n con coefficienti non tutti nulli, ossia se esistono λ1 , λ2 , . . . , λn ∈ K non tutti nulli tali che 0 = λ1 v 1 + λ2 v 2 + · · · + λn v n .

Dipendenza lineare

Osservazione 13.3. 1. Le due definizioni di sopra sono complementari, ossia sono l’una l’inversa dell’altra. Dati i vettori v 1 , v 2 , . . . , v n ∈ V , essi risultano sempre o linearmente indipendenti o linearmente dipendenti, con le due opzioni che si escludono a vicenda. 2. Zero vettori danno una sola combinazione lineare che vale 0 (Definizione 11.1), quindi zero vettori sono linearmente indipendenti. 3. Il fatto di essere linearmente indipendenti o dipendenti non dipende dall’ordine dei vettori. Osservazione 13.4. Per dimostrare che i vettori v 1 , v 2 , . . . , v n sono linearmente indipendenti possiamo considerare una combinazione lineare generica il cui risultato è il vettore nullo e dimostrare che tutti i coefficienti sono nulli. Se invece troviamo coefficienti λ1 , λ2 , . . . , λn non tutti nulli tali che λ1 v 1 + λ2 v 2 + · · · + λn v n = 0, allora i vettori sono linearmente dipendenti. Esempio 13.5. 13.1 abbiamo dimostrato che i due   1.  Nell’Esempio  2 1 vettori e sono linearmente indipendenti. ◮ 3 1   2 2. Nell’Esempio 11.4-3 abbiamo dimostrato che i tre vettori , 3     −1 1 and sono linearmente dipendenti. ◮ 0 1 3. I tre vettori geometrici mostrati nella figura sono linearmente dipendenti, perché la combinazione lineare 1 · v + 2 · w − 1 · u ha coefficienti non tutti nulli e risultato 0.

4. I polinomi 1, x, x2 , . . . , xm sono linearmente indipendenti, infatti se la combinazione lineare λ0 · 1 + λ1 x + λ2 x2 + · · · + λm xn ha come risultato il polinomio nullo, allora λi = 0 per ogni i = 0, 1, 2, . . . , m. Osservazione 13.6. Supponiamo di avere un solo vettore v 1 . Esso è linearmente indipendente se e solo se è diverso da 0. Infatti, se v1 = 0, esso è linearmente dipendente perché 0 è il risultato della combinazione lineare 1v 1 . Se, invece, v 1 6= 0, per la proprietà (SV9) dello spazio vettoriale V (Proposizione 10.7), l’unico coefficiente λ tale che λv 1 = 0 è λ = 0, quindi v 1 è linearmente indipendente. Proposizione 13.7. Sia V uno spazio vettoriale, e siano v 1 , v 2 , . . . , v n vettori di V con n > 2. Essi sono linearmente dipendenti se e solo se uno di essi è il risultato di una combinazione lineare degli altri. c 2014 Gennaro Amendola

Versione 1.0

Dimostriamo l’implicazione λ1 v 1 + λ2 v 2 + · · · + λn v n = 0 ⇒ λi = 0 ∀i = 1, 2, . . . , n. In questo caso abbiamo invece trovato esplicitamente una combinazione lineare con coefficienti non tutti nulli il cui risultato è 0.

◮ Abbiamo impostato l’equazione      in forma 2 1 0 vettoriale a · +b· = e abbia3 1 0 mo notato che essa aveva solo la soluzione (a, b) = (0, 0), tutta nulla. ◮ Per dimostrare la dipendenza lineare è sufficiente mostrare i coefficienti, non tutti nulli, di una combinazione lineare il cui risultato è 02 . Per trovarli abbiamo impostato   l’equazione   in forma   vettoriale 2 −1 1 0 a· +b· +c· = e abbiamo 3 0 1 0 notato che essa aveva anche la soluzione (a, b, c) = (1, −1, −3) non nulla (sarebbe stato sufficiente che uno dei tre coefficienti fosse diverso da 0). Notiamo anche che i coefficienti non sono univocamente determinati, infatti anche (a, b, c) = (2, −2, −6) è una soluzione non nulla dell’equazione, che dà un’altra combinazione lineare con coefficienti non tutti nulli e risultato 02 .

Se i vettori v 1 , v2 , . . . , v n con n > 2 sono linearmente dipendenti, non possiamo dire che tutti sono il risultato di una combinazione lineare degli altri. La Proposizione 13.7 afferma solo che almeno uno di essi è il risultato di una combinazione lineare degli altri. Ad esempio, se consideriamo v 1 = 0 e v 2 6= 0, abbiamo che essi sono linearmente dipendenti, infatti v 1 è il risultato della combinazione lineare 0v 2 . Tuttavia, v2 non è il risultato di nessuna combinazione lineare di v1 , perché λv 1 = 0 per tutti i λ ∈ K.

Lezione 13. Dipendenza e indipendenza lineare

13–3

Dimostrazione. (∗∗) Supponiamo che v 1 , v 2 , . . . , v n siano linearmente dipendenti, e dimostriamo che uno di essi è il risultato di una combinazione lineare degli altri. Abbiamo che esistono coefficienti λ1 , λ2 , . . . , λn non tutti nulli tali che λ1 v 1 + λ2 v 2 + · · · + λn v n = 0. Ciò vuol dire che esiste almeno un coefficiente λi non nullo, allora abbiamo    n i−1  X X λj λj − vj + vj . vi = − λi λi j=i+1

j=1

Dimostriamo ora l’implicazione inversa. Supponiamo che uno dei vettori, diciamo di una combinazione lineare degli altri, Pi−1 v i , è il risultato Pn ossia v i = j=1 λj v j + j=i+1 λj vj . Allora abbiamo che i−1 X j=1

λj vj − 1v i +

n X

λj v j = 0.

j=i+1

Osservazione 13.8. Nel caso n = 2, l’enunciato della Proposizione 13.7 può essere rienunciato come segue. Due vettori sono linearmente dipendenti se e solo se uno di essi è multiplo dell’altro. Esempio 13.9. 1. I due vettori v e w, mostrati nella figura, sono linearmente indipendenti, infatti non abbiamo né che v è un multiplo di w né che w è un multiplo di v. Invece, i due vettori v e u, mostrati nella figura, sono linearmente dipendenti, infatti abbiamo che u è un multiplo di v.     2 1 2. I due vettori e sono linearmente indipendenti ◮, infatti 3 1       2 1 1 non abbiamo né che è un multiplo di né che è un 3 1 1   2 ◮ . multiplo di 3       2 −1 1 ◮, 3. I tre vettori , e sono linearmente dipendenti ◮ 3 0 1   2 infatti abbiamo che è il risultato di una combinazione lineare 3       −1 1 ◮ 2 . =1 +3 degli altri due vettori 1 3 0 Osservazione 13.10. Sia V uno spazio vettoriale, e siano v 1 , v 2 , . . . , v n ∈ V linearmente dipendenti. Comunque giustapponiamo ad essi vettori w1 , w 2 , . . . , wm ∈ V , abbiamo che i vettori v 1 , v 2 , . . . , v n , w 1 , w 2 , . . . , wm ∈ V sono linearmente dipendenti. Infatti, abbiamo una combinazione Pn lineare dei vettori v i con coefficienti λi non tutti nulli che vale 0: i=1 λi v i = 0. Allora anche la combinazione P P lineare ni=1 λi v i + m 0w i non ha tutti i coefficienti nulli e vale 0. i=1 Ciò è equivalente a dire che, se i vettori v 1 , v 2 , . . . , v n ∈ V sono linearmente indipendenti, allora, comunque scegliamo tra essi m vettori wi , ossia {w1 , w 2 , . . . , wm } ⊂ {v 1 , v 2 , . . . , v n }, abbiamo che i vettori w1 , w2 , . . . , w m ∈ V sono linearmente indipendenti. c 2014 Gennaro Amendola

Versione 1.0

Come abbiamo visto sopra, non è detto che entrambi siano sempre multipli uno dell’altro, perché uno può essere nullo mentre l’altro no. Se, però, sono entrambi diversi da 0, allora dalla dimostrazione della Proposizione 13.7 possiamo dedurre che due vettori sono linearmente dipendenti se e solo se ciascuno di essi è multiplo dell’altro.

◮ Example 13.5-1.

    2 1 ◮ Né l’equazione =k né l’equazio3 1     1 2 ne =k hanno soluzione. 1 3 ◮ ◮ Example 13.5-2.



 −1 0 è il risultato di una combinazione lineare     −1 2 degli altri due vettori = 1· + 0 3     1 1 (−3) · e che è il risultato di una 1 1 combinazione lineare degli   altridue vettori    2 −1 1 1 1 + −3 · . = 3· 3 0 1

◮ In questo caso abbiamo anche che

Stiamo considerando la contronomiale a quella dell’affermazione precedente (Osservazione 3.9).

Lezione 13. Dipendenza e indipendenza lineare

13–4

    2 1 Esempio 13.11. 1. I due vettori e sono linearmente indi3 1 pendenti◮,quindi, per l’osservazione precedente, anche il singolo 2 vettore è linearmente indipendente, e anche il singolo vettore 3   1 è linearmente indipendente. ◮ 1       2 −1 1 ◮, 2. I tre vettori , e sono linearmente dipendenti ◮ 3 0 1 quindi, scegliamo un vet l’osservazione precedente,    comunque  per      2 x1 −1 1 x1 i quattro vettori tore , , sono lineare x2 3 0 1 x2 ◮ mente dipendenti. ◮ ◮ Un caso particolare dell’osservazione precedente è il seguente. Osservazione 13.12. Se uno dei vettori v 1 , v 2 , . . . , v n ∈ V è nullo, essi sono linearmente dipendenti. Infatti, il vettore nullo è linearmente dipendente, quindi giustapponendo gli altri n − 1 otteniamo ancora vettori linearmente dipendenti. Osservazione 13.13. L’implicazione inversa di quella dell’Osservazione 13.10 è falsa, ossia se giustapponiamo a vettori linearmente indipendenti v 1 , v 2 , . . . , v n ∈ V altri vettori w1 , w2 , . . . , w m ∈ V , possiamo anche avere che i vettori v 1 , v 2 , . . . , v n , w 1 , w 2 , . . . , wm ∈ V sono linearmente dipendenti. ◮ Equivalentemente, se i vettori v 1 , v 2 , . . . , v n ∈ V sono linearmente dipendenti e se scegliamo tra essi m vettori wi , ossia {w1 , w2 , . . . , w m } ⊂ {v 1 , v 2 , . . . , v n }, possiamo avere che i vettori w1 , w 2 , . . . , w m ∈ V sono linearmente indipendenti. ◮     2 1 Esempio 13.14. 1. I due vettori e sono linearmente in3 1   −1 dipendenti ◮, ma giustapponendo il vettore otteniamo tre 0 vettori linearmente dipendenti ◮.       2 −1 1 2. I tre vettori , e sono linearmente dipendenti ◮, 3 0 1     2 1 scegliendo tra essi i due vettori e otteniamo due vettori 3 1 linearmente indipendenti ◮. Proposizione 13.15. Sia V uno spazio vettoriale, e siano v 1 , v 2 , . . . , v n vettori di V . Essi sono linearmente indipendenti se e solo se ogni vettore di Span (v 1 , v 2 , . . . , v n ) è il risultato di una sola combinazione lineare dei vettori v 1 , v 2 , . . . , v n . Dimostrazione. (∗∗) Dobbiamo dimostrare due implicazioni. Supponiamo che ogni vettore di Span (v 1 , v 2 , . . . , v n ) è il risultato di una sola combinazione lineare dei vettori v 1 , v 2 , . . . , v n . In particolare, il vettore 0 è il risultato di una sola combinazione lineare dei vettori v 1 , v 2 , . . . , v n , quindi i vettori v1 , v 2 , . . . , v n sono linearmente indipendenti. c 2014 Gennaro Amendola

Versione 1.0

◮ Esempio 13.5-1.

◮ L’Osservazione 13.6 lo conferma. ◮ ◮ Esempio 13.5-2.   2 ◮ ◮ La combinazione lineare 1 · + (−1) · ◮ 3       −1 1 0 +(−3)· = dei tre vettori si 0 1 0   2 estende alla combinazione lineare 1 · + 3       −1 1 x1 (−1) · + (−3) · +0· = 0 1 x2   0 che ha come risultato 02 e non tutti i 0 coefficienti nulli.

Il viceversa non è vero, ossia vettori diversi da 0 possono essere linearmente dipendenti, come abbiamo visto nell’Esempio 13.5-2.

◮ Il fatto che sia falsa non ci assicura che ciò succede sempre: possiamo avere anche che i vettori v1 , v 2 , . . . , v n , w 1 , w 2 , . . . , w m ∈ V sono linearmente indipendenti. ◮ Il fatto che sia falsa non ci assicura che ciò succede sempre: possiamo avere anche che i vettori w 1 , w 2 , . . . , w m ∈ V sono linearmente dipendenti. ◮ Esempio 13.5-1. ◮ Esempio 13.5-2. ◮ Esempio 13.5-2.

◮ Esempio 13.5-1.

Per la Definizione 13.2 sappiamo che i vettori v1 , v 2 , . . . , v n sono linearmente indipendenti se e solo se il vettore nullo è il risultato di una sola combinazione lineare dei vettori v 1 , v 2 , . . . , v n . Se questo è vero (per il vettore nullo), automaticamente è vero per tutti i vettori di Span (v 1 , v2 , . . . , v n ).

Lezione 13. Dipendenza e indipendenza lineare

13–5

Dimostriamo ora l’implicazione inversa. Supponiamo che i vettori v 1 , v 2 , . . . , v n sono linearmente indipendenti. Supponiamo per assurdo che un vettore di Span (v 1 , v 2 , . . . , v n ) è il risultato di due combinazioni lineari distinte dei vettori v 1 , v 2 , . . . , v n : λ1 v 1 + λ2 v 2 + · · · + λn v n

Allora abbiamo ossia

and

µ1 v 1 + µ2 v 2 + · · · + µn v n .

λ1 v 1 + λ2 v 2 + · · · + λn v n = µ1 v 1 + µ2 v 2 + · · · + µn v n , (λ1 − µ1 ) v 1 + (λ2 − µ2 ) v 2 + · · · + (λn − µn ) vn = 0.

Visto che le due combinazioni lineari sono distinte, almeno un coefficiente λi è diverso dal corrispondente µi , quindi abbiamo λi − µi 6= 0. Abbiamo trovato una combinazione lineare dei vettori v 1 , v 2 , . . . , v n con i coefficienti non tutti nulli e il cui risultato è 0. Ciò contraddice l’indipendenza lineare dei vettori v1 , v 2 , . . . , v n : abbiamo concluso la dimostrazione. Osservazione 13.16. La proposizione precedente è vera anche se consideriamo zero vettori. Infatti, zero vettori sono linearmente indipendenti, e in Span (∅) = {0} c’è un solo vettore che è il risultato dell’unica combinazione lineare degli zero vettori.     2 1 Esempio 13.17. 1. I due vettori colonna e sono linear3 1   5 ◮ apmente indipendenti . Ad esempio, il vettore colonna 9     2 1 partiene a Span , ed è il risultato di una sola com3 1     1 ◮ 2 , infatti l’equazione e binazione lineare dei due vettori 1 3       5 2 1 in forma vettoriale = a +b ha solo la soluzione 9 3 1 (a, b) = (4, −3).   2 2. Generalizzando ciò che abbiamo appena fatto, i due vettori 3     1 x1 e sono linearmente indipendenti, e ogni vettore che 1 x2     2 1 ◮ è il risultato di una sola comappartiene a Span , 3 1     2 1 ◮ ◮, infatti l’equazione binazione lineare dei due vettori e 3 1       2 1 x1 = a +b in forma vettoriale ha solo la soluzione 3 x2 1 (a, b) = (x2 − x1 , 3x1 − 2x2 ).

Proposizione 13.18. Sia V uno spazio vettoriale, e siano v 1 , v 2 , . . . , v n vettori in V . Si supponga inoltre che w1 , w2 , . . . , w m ∈ V sono tali che • w1 , w 2 , . . . , wm ∈ Span (v 1 , v 2 , . . . , v n ), • w1 , w 2 , . . . , wm sono linearmente indipendenti.

c 2014 Gennaro Amendola

Versione 1.0

◮ Esempio 13.5-1.

◮ Visto chel’equazione ha   una  soluzione,  5 2 1 abbiamo ∈ Span , ; vi9 3 1 stoche la soluzione è unica, abbiamo che  5 è il risultato di una sola combinazione 9     2 1 lineare dei due vettori e . 3 1

    2 1 , = R2 (Eser3 1 cizio 12.8), quindi non abbiamo restrizio  x1 ni sul vettore perché appartiene a x2     2 1 Span , . 3 1

◮ Abbiamo Span

◮ ◮ Nell’equazione le coordinate x1 e x2 sono parametri, mentre a e b sono incognite.

Lezione 13. Dipendenza e indipendenza lineare

13–6

Allora si ha m 6 n. Non daremo la dimostrazione di questa proposizione, anche se non è difficile. Considerando l’implicazione contronominale ◮ all’enunciato della proposizione precedente otteniamo la proposizione equivalente seguente.

◮ Osservazione 3.9.

Proposizione 13.19. Sia V uno spazio vettoriale, e siano v 1 , v 2 , . . . , v n vettori in V . Si supponga inoltre che w 1 , w 2 , . . . , wm ∈ V siano tali che • w1 , w 2 , . . . , wm ∈ Span (v 1 , v 2 , . . . , v n ),

• m > n. Allora, i vettori w1 , w2 , . . . , w m sono linearmente dipendenti. Esempio 13.20. 1. Abbiamo           1 1 2 −1 1 • , ∈ Span , , ,◮ 1 3 3 0 1     1 2 ◮. • e sono linearmente indipendenti ◮ 1 3

    1 1 è ovvio, mentre per ab1 3 biamo mostrato una combinazione lineare nell’Esempio 11.2-2.

◮ Per

◮ ◮ Esempio 13.5-1.

Infatti abbiamo 2 6 3. 2. Abbiamo           2 −1 1 1 0 • , , ∈ Span , ,◮ 3 0 1 0 1 • 3 > 2.       2 −1 1 Infatti i vettori , e sono linearmente dipendenti. ◮ 3 0 1 3. L’esempio precedente può essere generalizzato e possiamo dimostrare che non possono esistere tre vettori linearmente indipen2 2 denti  né in R2 né nel piano V E , infatti abbiamo visto che R = 0 1 e quindi, per la Proposizione 13.19, comunque , Span 1 0 consideriamo m vettori colonna con m > 2, essi sono linearmente dipendenti. ◮ 4. Generalizzando ancora abbiamo che non possono esistere n+1 vettori linearmente indipendenti in Kn , infatti Kn è generato da n vet◮ e quindi, per la Proposizione 13.19, comunque consideriamo tori ◮ m vettori colonna con m > n, essi sono linearmente dipendenti. Osservazione 13.21. 1. Siano X (1) , X (2) , . . . , X (k) ∈ Kn vettori colonna con coordinate  (1)   (2)   (k)  x1 x1 x  (1)   (2)   1(k)  x2  x2  x2  (2) (k)      X (1) =   ..  , X =  ..  , . . . , X =  ..  .  .   .   .  (1) (2) (k) xn xn xn Siano i1 , i2 , . . . , im indici con 1 6 i1 < i2 < · · · < im 6 n, e siano Y (1) , Y (2) , . . . , Y (k) ∈ Km i vettori colonna ottenuti rispettivamente da X (1) , X (2) , . . . , X (k) , eliminando le coordinate con indici

c 2014 Gennaro Amendola

Versione 1.0

◮ Nell’Esempio abbiamo visto che   12.29-1  1 0 Span , = R2 . 0 1 ◮ Esempio 13.5-2.

◮ Usando un sistema di riferimento cartesiano in V 2E possiamo identificare i vettori geometrici con gli elementi di R2 , quindi lo stesso risultato vale anche per V 2E . ◮ ◮ Esempio 12.29-2.

Inserendo coordinate in vettori colonna linearmente indipendenti, essi restano linearmente indipendenti.

Lezione 13. Dipendenza e indipendenza lineare

13–7

diversi da i1 , i2 , . . . , im , ossia  (1)   (2)   (k)  x i1 x i1 x i1  (1)   (2)   (k)   x i2  xi2   x i2  (1) (2) (k)      Y =  . , Y =  . ,..., Y = .  . . .  .   .   ..  (1) (2) (k) x im x im x im Se i vettori colonna Y (1) , Y (2) , . . . , Y (k) sono linearmente indipendenti, allora anche i vettori colonna X (1) , X (2) , . . . , X (k) sono linearmente indipendenti. Per dimostrarlo, consideriamo una combinazione lineare dei vettori colonna X (1) , X (2) , . . . , X (k) il cui risultato è nullo, α1 X (1) + α2 X (2) + · · · + αk X (k) = 0n ,

e dimostriamo che αi = 0 per ogni i = 1, 2, . . . , k. Utilizzando le coordinate abbiamo il sistema  (1) (2) (k)  α1 x1 + α2 x1 + · · · + αk x1 = 0     α x(1) + α x(2) + · · · + α x(k) = 0 1 2 2 2 k 2 . ..   .    (1) (2) (k) α1 xn + α2 xn + · · · + αk xn = 0

Considerando soltanto le equazioni i1 -esima, i2 -esima,. . . , im -esima, abbiamo il sistema  (1) (2) (k)  α1 xi1 + α2 xi1 + · · · + αk xi1 = 0     α x(1) + α x(2) + · · · + α x(k) = 0 1 i2 2 i2 k i2 , .  ..     (k) (2) (1) α1 xim + α2 xim + · · · + αk xim = 0 che, in forma vettoriale, è equivalente a

α1 Y (1) + α2 Y (2) + · · · + αk Y (k) = 0m .

Visto che stiamo assumendo che i vettori colonna Y (1) , Y (2) , . . . , Y (k) sono linearmente indipendenti, abbiamo αi = 0 per ogni i = 1, 2, . . . , k, ossia che i vettori colonna X (1) , X (2) , . . . , X (k) sono linearmente indipendenti. 2. Considerando l’implicazione contronominale ◮ di quanto enunciato sopra otteniamo che se i vettori colonna X (1) , X (2) , . . . , X (k) sono linearmente dipendenti, allora anche i vettori colonna Y (1) , Y (2) , . . . , Y (k) sono linearmente dipendenti.     2 1 Esempio 13.22. 1. I due vettori colonna e sono linear3 1 mente indipendenti ◮ , quindi per l’Osservazione 13.21-1 anche i due vettori colonna,   ottenuti   inserendo arbitrariamente la seconda 2 1    coordinata, −1 e 4 sono linearmente indipendenti ◮. 1 3

c 2014 Gennaro Amendola

Versione 1.0

Rimuovendo coordinate da vettori linearmente dipendenti, essi restano linearmente dipendenti. ◮ Remark 3.9.

◮ Esempio 13.5-1.

◮ Il conto esplicito (Esercizio 13.9-3) è inutile.

Lezione 13. Dipendenza e indipendenza lineare

13–8

      2 −1 1 2. I tre vettori colonna 3,  0  e 1 sono linearmente di7 1 2 pendenti ◮, quindi per l’Osservazione 13.21-2 anche i tre vettori colonna, rimuovendo arbitrariamente la terza coordinata,    ottenuti    2 −1 1 , e sono linearmente dipendenti ◮. 3 0 1 Osservazione 13.23. Il viceversa di quanto enunciato nell’Osservazione 13.21 non è vero (i controesempi sono nell’esempio sotto). 1. Se i vettori colonna X (1) , X (2) , . . . , X (k) sono linearmente indipendenti, allora i vettori colonna Y (1) , Y (2) , . . . , Y (k) possono essere linearmente dipendenti (oppure essere linearmente indipendenti). 2. Analogamente, se i vettori colonna Y (1) , Y (2) , . . . , Y (k) sono linearmente dipendenti, allora i vettori colonna X (1) , X (2) , . . . , X (k) possono essere linearmente indipendenti (oppure essere linearmente dipendenti).   1  Esempio 13.24. 1. Il singolo vettore 0 è linearmente indipen0   0 dente. Rimuovendo la prima coordinata diventa che è li0 nearmente dipendente, mentre rimuovendo la seconda coordinata   1 che è linearmente indipendente. ◮ diventa 0       2 −1 1 2. I tre vettori , e sono linearmente dipendenti ◮. In3 0 1   2  serendo una terza coordinata possiamo ottenere i tre vettori 3, 7     −1 1  0  e 1 che sono linearmente dipendenti ◮, oppure i tre 1 2       −1 1 2      0 e 1 che sono linearmente indipendenti ◮ . vettori 3 , 2 0 1

◮ La combinazione lineare con coefficienti 1, −1, −3 ha come risultato 03 (Esercizio 13.1). ◮ Esempio 13.5-2.

Inserendo coordinate in vettori colonna linearmente dipendenti, essi possono restare linearmente dipendenti o diventare linearmente indipendenti. Rimuovendo coordinate da vettori colonna linearmente indipendenti, essi possono restare linearmente indipendenti o diventare linearmente dipendenti.

◮ Osservazione 13.6.

◮ Esempio 13.5-2.

◮ La combinazione lineare con coefficienti 1, −1, −3 ha come risultato 03 (Esercizio 13.1). ◮ Esercizio 13.2.

Proposizione 13.25. Sia V uno spazio vettoriale, siano v 1 , v 2 , . . . , v n vettori linearmente indipendenti in V , e sia v un vettore in V . I seguenti fatti sono equivalenti fra loro: • v1 , v 2 , . . . , v n , v sono linearmente indipendenti, • v 6∈ Span (v 1 , v 2 , . . . , v n ).

Non daremo la dimostrazione di questa proposizione, anche se non è difficile. Osservazione 13.26. La proposizione precedente è vera anche se consideriamo zero vettori (che sono linearmente indipendenti) di V e v ∈ V . Infatti, v è linearmente indipendente se e solo se v 6= 0 ◮, ossia v 6∈ {0} = Span (∅). c 2014 Gennaro Amendola

Versione 1.0

◮ Osservazione 13.6.

Lezione 13. Dipendenza e indipendenza lineare

13–9

1. Consideriamo di R3 dell’Esempio 13.24-2.  ivettori   −1 1 Abbiamo che i due vettori  0  e 1 sono linearmente indi      1 2 1 −1 2 ◮ ◮ Lo sono i tre vettori 3,  0  e 1, pendenti .       2 1 0 −1 1 2 quindi per l’Osservazione 13.10 lo sono   −1 1 I tre vettori  0 , 1 e 3 sono linearmente indipendenti, anche  0  e 1. 1 2 0 2 1       −1 1 2 ◮ Exercise 12.2. infatti 3 6∈ Span  0  , 1 ◮. 2 0 1       2 −1 1 I tre vettori  0 , 1 e 3 sono linearmente dipendenti, 7 2 1       2 −1 1       ◮ Esercizio 12.13. infatti 3 ∈ Span 0 , 1 ◮. 7 1 2

Esempio 13.27.

2. Dati i due vettori geometrici linearmente indipendenti in V 3E , v 1 e v 2 , mostrati nella figura, essi generano un piano π. Il vettore geometrico w appartiene al piano π, quindi i vettori v 1 , v 2 , w sono linearmente dipendenti. Invece, il vettore geometrico u non appartiene al piano π, quindi i vettori v 1 , v 2 , u sono linearmente indipendenti.

c 2014 Gennaro Amendola

Versione 1.0

Lezione 13

Dipendenza e indipendenza lineare In questa lezione ci occuperemo di dipendenza e indipendenza lineare. Lo scopo è di capire da un lato se tutti i vettori che generano un sottospazio vettoriale sono necessari per generarlo o no, e dall’altro se un vettore è il risultato di un’unica combinazione lineare di altri vettori.

13.1

Dipendenza e indipendenza lineare

Abbiamo visto nell’Osservazione 12.14-3 che il sottospazio generato da un numero finito di vettori {v 1 , v 2 , . . . , v n } coincide con l’insieme dei valori delle combinazioni lineari dei vettori v 1 , v 2 , . . . , v n . Nell’Esempio 11.4 abbiamo visto che può succedere che un vettore di Span (v 1 , v 2 , . . . , v n ) possa essere espresso come il risultato di più combinazioni lineari dei vettori v 1 , v 2 , . . . , v n . Ciò non succede sempre, come mostrato nel seguente esempio. Esempio 13.1. Il vettore 02 ∈ R2 può essere scritto in unmodo solo  2 1 come risultato di una combinazione lineare dei vettori e , infatti 3 1       2 1 0 l’equazione in forma vettoriale x +y = ha solo la soluzione 3 1 0 (x, y) = (0, 0) ◮. Il vettore nullo è sempre il risultato della combinazione lineare dei vettori v 1 , v 2 , . . . , v n con tutti i coefficienti nulli. Il fatto che esso si possa esprimere, o meno, come il risultato di altre combinazioni lineari è una caratteristica importante dei vettori v 1 , v 2 , . . . , v n . Diamo quindi la seguente definizione. Definizione 13.2. Sia V uno spazio vettoriale su un campo K, e siano v 1 , v 2 , . . . , v n vettori di V . • I vettori v 1 , v 2 , . . . , v n sono detti linearmente indipendenti se il vettore nullo è il risultato di una sola combinazione lineare dei vettori v 1 , v 2 , . . . , v n (quella con tutti i coefficienti nulli), ossia se, comunque vengono scelti i coefficienti λ1 , λ2 , . . . , λn ∈ K non tutti c 2014 Gennaro Amendola

Versione 1.0

◮ Abbiamo visto come risolvere le equazioni in forma vettoriale nella Lezione 10.

Stiamo considerando il vettore 0 perché esso appartiene sempre a {v 1 , v2 , . . . , v n }: vedremo nel seguito che non sarà restrittivo considerare solamente il vettore 0 (Proposizione 13.15).

Indipendenza lineare

Lezione 13. Dipendenza e indipendenza lineare

13–2

nulli, il risultato della combinazione lineare λ1 v 1 +λ2 v 2 +· · ·+λn v n non è il vettore nullo. • I vettori v 1 , v 2 , . . . , v n sono detti linearmente dipendenti se il vettore nullo è il risultato di una combinazione lineare dei vettori v 1 , v 2 , . . . , v n con coefficienti non tutti nulli, ossia se esistono λ1 , λ2 , . . . , λn ∈ K non tutti nulli tali che 0 = λ1 v 1 + λ2 v 2 + · · · + λn v n .

Dipendenza lineare

Osservazione 13.3. 1. Le due definizioni di sopra sono complementari, ossia sono l’una l’inversa dell’altra. Dati i vettori v 1 , v 2 , . . . , v n ∈ V , essi risultano sempre o linearmente indipendenti o linearmente dipendenti, con le due opzioni che si escludono a vicenda. 2. Zero vettori danno una sola combinazione lineare che vale 0 (Definizione 11.1), quindi zero vettori sono linearmente indipendenti. 3. Il fatto di essere linearmente indipendenti o dipendenti non dipende dall’ordine dei vettori. Osservazione 13.4. Per dimostrare che i vettori v 1 , v 2 , . . . , v n sono linearmente indipendenti possiamo considerare una combinazione lineare generica il cui risultato è il vettore nullo e dimostrare che tutti i coefficienti sono nulli. Se invece troviamo coefficienti λ1 , λ2 , . . . , λn non tutti nulli tali che λ1 v 1 + λ2 v 2 + · · · + λn v n = 0, allora i vettori sono linearmente dipendenti. Esempio 13.5. 13.1 abbiamo dimostrato che i due   1.  Nell’Esempio  2 1 vettori e sono linearmente indipendenti. ◮ 3 1   2 2. Nell’Esempio 11.4-3 abbiamo dimostrato che i tre vettori , 3     −1 1 and sono linearmente dipendenti. ◮ 0 1 3. I tre vettori geometrici mostrati nella figura sono linearmente dipendenti, perché la combinazione lineare 1 · v + 2 · w − 1 · u ha coefficienti non tutti nulli e risultato 0.

4. I polinomi 1, x, x2 , . . . , xm sono linearmente indipendenti, infatti se la combinazione lineare λ0 · 1 + λ1 x + λ2 x2 + · · · + λm xn ha come risultato il polinomio nullo, allora λi = 0 per ogni i = 0, 1, 2, . . . , m. Osservazione 13.6. Supponiamo di avere un solo vettore v 1 . Esso è linearmente indipendente se e solo se è diverso da 0. Infatti, se v1 = 0, esso è linearmente dipendente perché 0 è il risultato della combinazione lineare 1v 1 . Se, invece, v 1 6= 0, per la proprietà (SV9) dello spazio vettoriale V (Proposizione 10.7), l’unico coefficiente λ tale che λv 1 = 0 è λ = 0, quindi v 1 è linearmente indipendente. Proposizione 13.7. Sia V uno spazio vettoriale, e siano v 1 , v 2 , . . . , v n vettori di V con n > 2. Essi sono linearmente dipendenti se e solo se uno di essi è il risultato di una combinazione lineare degli altri. c 2014 Gennaro Amendola

Versione 1.0

Dimostriamo l’implicazione λ1 v 1 + λ2 v 2 + · · · + λn v n = 0 ⇒ λi = 0 ∀i = 1, 2, . . . , n. In questo caso abbiamo invece trovato esplicitamente una combinazione lineare con coefficienti non tutti nulli il cui risultato è 0.

◮ Abbiamo impostato l’equazione      in forma 2 1 0 vettoriale a · +b· = e abbia3 1 0 mo notato che essa aveva solo la soluzione (a, b) = (0, 0), tutta nulla. ◮ Per dimostrare la dipendenza lineare è sufficiente mostrare i coefficienti, non tutti nulli, di una combinazione lineare il cui risultato è 02 . Per trovarli abbiamo impostato   l’equazione   in forma   vettoriale 2 −1 1 0 a· +b· +c· = e abbiamo 3 0 1 0 notato che essa aveva anche la soluzione (a, b, c) = (1, −1, −3) non nulla (sarebbe stato sufficiente che uno dei tre coefficienti fosse diverso da 0). Notiamo anche che i coefficienti non sono univocamente determinati, infatti anche (a, b, c) = (2, −2, −6) è una soluzione non nulla dell’equazione, che dà un’altra combinazione lineare con coefficienti non tutti nulli e risultato 02 .

Se i vettori v 1 , v2 , . . . , v n con n > 2 sono linearmente dipendenti, non possiamo dire che tutti sono il risultato di una combinazione lineare degli altri. La Proposizione 13.7 afferma solo che almeno uno di essi è il risultato di una combinazione lineare degli altri. Ad esempio, se consideriamo v 1 = 0 e v 2 6= 0, abbiamo che essi sono linearmente dipendenti, infatti v 1 è il risultato della combinazione lineare 0v 2 . Tuttavia, v2 non è il risultato di nessuna combinazione lineare di v1 , perché λv 1 = 0 per tutti i λ ∈ K.

Lezione 13. Dipendenza e indipendenza lineare

13–3

Dimostrazione. (∗∗) Supponiamo che v 1 , v 2 , . . . , v n siano linearmente dipendenti, e dimostriamo che uno di essi è il risultato di una combinazione lineare degli altri. Abbiamo che esistono coefficienti λ1 , λ2 , . . . , λn non tutti nulli tali che λ1 v 1 + λ2 v 2 + · · · + λn v n = 0. Ciò vuol dire che esiste almeno un coefficiente λi non nullo, allora abbiamo    n i−1  X X λj λj − vj + vj . vi = − λi λi j=i+1

j=1

Dimostriamo ora l’implicazione inversa. Supponiamo che uno dei vettori, diciamo di una combinazione lineare degli altri, Pi−1 v i , è il risultato Pn ossia v i = j=1 λj v j + j=i+1 λj vj . Allora abbiamo che i−1 X j=1

λj vj − 1v i +

n X

λj v j = 0.

j=i+1

Osservazione 13.8. Nel caso n = 2, l’enunciato della Proposizione 13.7 può essere rienunciato come segue. Due vettori sono linearmente dipendenti se e solo se uno di essi è multiplo dell’altro. Esempio 13.9. 1. I due vettori v e w, mostrati nella figura, sono linearmente indipendenti, infatti non abbiamo né che v è un multiplo di w né che w è un multiplo di v. Invece, i due vettori v e u, mostrati nella figura, sono linearmente dipendenti, infatti abbiamo che u è un multiplo di v.     2 1 2. I due vettori e sono linearmente indipendenti ◮, infatti 3 1       2 1 1 non abbiamo né che è un multiplo di né che è un 3 1 1   2 ◮ . multiplo di 3       2 −1 1 ◮, 3. I tre vettori , e sono linearmente dipendenti ◮ 3 0 1   2 infatti abbiamo che è il risultato di una combinazione lineare 3       −1 1 ◮ 2 . =1 +3 degli altri due vettori 1 3 0 Osservazione 13.10. Sia V uno spazio vettoriale, e siano v 1 , v 2 , . . . , v n ∈ V linearmente dipendenti. Comunque giustapponiamo ad essi vettori w1 , w 2 , . . . , wm ∈ V , abbiamo che i vettori v 1 , v 2 , . . . , v n , w 1 , w 2 , . . . , wm ∈ V sono linearmente dipendenti. Infatti, abbiamo una combinazione Pn lineare dei vettori v i con coefficienti λi non tutti nulli che vale 0: i=1 λi v i = 0. Allora anche la combinazione P P lineare ni=1 λi v i + m 0w i non ha tutti i coefficienti nulli e vale 0. i=1 Ciò è equivalente a dire che, se i vettori v 1 , v 2 , . . . , v n ∈ V sono linearmente indipendenti, allora, comunque scegliamo tra essi m vettori wi , ossia {w1 , w 2 , . . . , wm } ⊂ {v 1 , v 2 , . . . , v n }, abbiamo che i vettori w1 , w2 , . . . , w m ∈ V sono linearmente indipendenti. c 2014 Gennaro Amendola

Versione 1.0

Come abbiamo visto sopra, non è detto che entrambi siano sempre multipli uno dell’altro, perché uno può essere nullo mentre l’altro no. Se, però, sono entrambi diversi da 0, allora dalla dimostrazione della Proposizione 13.7 possiamo dedurre che due vettori sono linearmente dipendenti se e solo se ciascuno di essi è multiplo dell’altro.

◮ Example 13.5-1.

    2 1 ◮ Né l’equazione =k né l’equazio3 1     1 2 ne =k hanno soluzione. 1 3 ◮ ◮ Example 13.5-2.



 −1 0 è il risultato di una combinazione lineare     −1 2 degli altri due vettori = 1· + 0 3     1 1 (−3) · e che è il risultato di una 1 1 combinazione lineare degli   altridue vettori    2 −1 1 1 1 + −3 · . = 3· 3 0 1

◮ In questo caso abbiamo anche che

Stiamo considerando la contronomiale a quella dell’affermazione precedente (Osservazione 3.9).

Lezione 13. Dipendenza e indipendenza lineare

13–4

    2 1 Esempio 13.11. 1. I due vettori e sono linearmente indi3 1 pendenti◮,quindi, per l’osservazione precedente, anche il singolo 2 vettore è linearmente indipendente, e anche il singolo vettore 3   1 è linearmente indipendente. ◮ 1       2 −1 1 ◮, 2. I tre vettori , e sono linearmente dipendenti ◮ 3 0 1 quindi, scegliamo un vet l’osservazione precedente,    comunque  per      2 x1 −1 1 x1 i quattro vettori tore , , sono lineare x2 3 0 1 x2 ◮ mente dipendenti. ◮ ◮ Un caso particolare dell’osservazione precedente è il seguente. Osservazione 13.12. Se uno dei vettori v 1 , v 2 , . . . , v n ∈ V è nullo, essi sono linearmente dipendenti. Infatti, il vettore nullo è linearmente dipendente, quindi giustapponendo gli altri n − 1 otteniamo ancora vettori linearmente dipendenti. Osservazione 13.13. L’implicazione inversa di quella dell’Osservazione 13.10 è falsa, ossia se giustapponiamo a vettori linearmente indipendenti v 1 , v 2 , . . . , v n ∈ V altri vettori w1 , w2 , . . . , w m ∈ V , possiamo anche avere che i vettori v 1 , v 2 , . . . , v n , w 1 , w 2 , . . . , wm ∈ V sono linearmente dipendenti. ◮ Equivalentemente, se i vettori v 1 , v 2 , . . . , v n ∈ V sono linearmente dipendenti e se scegliamo tra essi m vettori wi , ossia {w1 , w2 , . . . , w m } ⊂ {v 1 , v 2 , . . . , v n }, possiamo avere che i vettori w1 , w 2 , . . . , w m ∈ V sono linearmente indipendenti. ◮     2 1 Esempio 13.14. 1. I due vettori e sono linearmente in3 1   −1 dipendenti ◮, ma giustapponendo il vettore otteniamo tre 0 vettori linearmente dipendenti ◮.       2 −1 1 2. I tre vettori , e sono linearmente dipendenti ◮, 3 0 1     2 1 scegliendo tra essi i due vettori e otteniamo due vettori 3 1 linearmente indipendenti ◮. Proposizione 13.15. Sia V uno spazio vettoriale, e siano v 1 , v 2 , . . . , v n vettori di V . Essi sono linearmente indipendenti se e solo se ogni vettore di Span (v 1 , v 2 , . . . , v n ) è il risultato di una sola combinazione lineare dei vettori v 1 , v 2 , . . . , v n . Dimostrazione. (∗∗) Dobbiamo dimostrare due implicazioni. Supponiamo che ogni vettore di Span (v 1 , v 2 , . . . , v n ) è il risultato di una sola combinazione lineare dei vettori v 1 , v 2 , . . . , v n . In particolare, il vettore 0 è il risultato di una sola combinazione lineare dei vettori v 1 , v 2 , . . . , v n , quindi i vettori v1 , v 2 , . . . , v n sono linearmente indipendenti. c 2014 Gennaro Amendola

Versione 1.0

◮ Esempio 13.5-1.

◮ L’Osservazione 13.6 lo conferma. ◮ ◮ Esempio 13.5-2.   2 ◮ ◮ La combinazione lineare 1 · + (−1) · ◮ 3       −1 1 0 +(−3)· = dei tre vettori si 0 1 0   2 estende alla combinazione lineare 1 · + 3       −1 1 x1 (−1) · + (−3) · +0· = 0 1 x2   0 che ha come risultato 02 e non tutti i 0 coefficienti nulli.

Il viceversa non è vero, ossia vettori diversi da 0 possono essere linearmente dipendenti, come abbiamo visto nell’Esempio 13.5-2.

◮ Il fatto che sia falsa non ci assicura che ciò succede sempre: possiamo avere anche che i vettori v1 , v 2 , . . . , v n , w 1 , w 2 , . . . , w m ∈ V sono linearmente indipendenti. ◮ Il fatto che sia falsa non ci assicura che ciò succede sempre: possiamo avere anche che i vettori w 1 , w 2 , . . . , w m ∈ V sono linearmente dipendenti. ◮ Esempio 13.5-1. ◮ Esempio 13.5-2. ◮ Esempio 13.5-2.

◮ Esempio 13.5-1.

Per la Definizione 13.2 sappiamo che i vettori v1 , v 2 , . . . , v n sono linearmente indipendenti se e solo se il vettore nullo è il risultato di una sola combinazione lineare dei vettori v 1 , v 2 , . . . , v n . Se questo è vero (per il vettore nullo), automaticamente è vero per tutti i vettori di Span (v 1 , v2 , . . . , v n ).

Lezione 13. Dipendenza e indipendenza lineare

13–5

Dimostriamo ora l’implicazione inversa. Supponiamo che i vettori v 1 , v 2 , . . . , v n sono linearmente indipendenti. Supponiamo per assurdo che un vettore di Span (v 1 , v 2 , . . . , v n ) è il risultato di due combinazioni lineari distinte dei vettori v 1 , v 2 , . . . , v n : λ1 v 1 + λ2 v 2 + · · · + λn v n

Allora abbiamo ossia

and

µ1 v 1 + µ2 v 2 + · · · + µn v n .

λ1 v 1 + λ2 v 2 + · · · + λn v n = µ1 v 1 + µ2 v 2 + · · · + µn v n , (λ1 − µ1 ) v 1 + (λ2 − µ2 ) v 2 + · · · + (λn − µn ) vn = 0.

Visto che le due combinazioni lineari sono distinte, almeno un coefficiente λi è diverso dal corrispondente µi , quindi abbiamo λi − µi 6= 0. Abbiamo trovato una combinazione lineare dei vettori v 1 , v 2 , . . . , v n con i coefficienti non tutti nulli e il cui risultato è 0. Ciò contraddice l’indipendenza lineare dei vettori v1 , v 2 , . . . , v n : abbiamo concluso la dimostrazione. Osservazione 13.16. La proposizione precedente è vera anche se consideriamo zero vettori. Infatti, zero vettori sono linearmente indipendenti, e in Span (∅) = {0} c’è un solo vettore che è il risultato dell’unica combinazione lineare degli zero vettori.     2 1 Esempio 13.17. 1. I due vettori colonna e sono linear3 1   5 ◮ apmente indipendenti . Ad esempio, il vettore colonna 9     2 1 partiene a Span , ed è il risultato di una sola com3 1     1 ◮ 2 , infatti l’equazione e binazione lineare dei due vettori 1 3       5 2 1 in forma vettoriale = a +b ha solo la soluzione 9 3 1 (a, b) = (4, −3).   2 2. Generalizzando ciò che abbiamo appena fatto, i due vettori 3     1 x1 e sono linearmente indipendenti, e ogni vettore che 1 x2     2 1 ◮ è il risultato di una sola comappartiene a Span , 3 1     2 1 ◮ ◮, infatti l’equazione binazione lineare dei due vettori e 3 1       2 1 x1 = a +b in forma vettoriale ha solo la soluzione 3 x2 1 (a, b) = (x2 − x1 , 3x1 − 2x2 ).

Proposizione 13.18. Sia V uno spazio vettoriale, e siano v 1 , v 2 , . . . , v n vettori in V . Si supponga inoltre che w1 , w2 , . . . , w m ∈ V sono tali che • w1 , w 2 , . . . , wm ∈ Span (v 1 , v 2 , . . . , v n ), • w1 , w 2 , . . . , wm sono linearmente indipendenti.

c 2014 Gennaro Amendola

Versione 1.0

◮ Esempio 13.5-1.

◮ Visto chel’equazione ha   una  soluzione,  5 2 1 abbiamo ∈ Span , ; vi9 3 1 stoche la soluzione è unica, abbiamo che  5 è il risultato di una sola combinazione 9     2 1 lineare dei due vettori e . 3 1

    2 1 , = R2 (Eser3 1 cizio 12.8), quindi non abbiamo restrizio  x1 ni sul vettore perché appartiene a x2     2 1 Span , . 3 1

◮ Abbiamo Span

◮ ◮ Nell’equazione le coordinate x1 e x2 sono parametri, mentre a e b sono incognite.

Lezione 13. Dipendenza e indipendenza lineare

13–6

Allora si ha m 6 n. Non daremo la dimostrazione di questa proposizione, anche se non è difficile. Considerando l’implicazione contronominale ◮ all’enunciato della proposizione precedente otteniamo la proposizione equivalente seguente.

◮ Osservazione 3.9.

Proposizione 13.19. Sia V uno spazio vettoriale, e siano v 1 , v 2 , . . . , v n vettori in V . Si supponga inoltre che w 1 , w 2 , . . . , wm ∈ V siano tali che • w1 , w 2 , . . . , wm ∈ Span (v 1 , v 2 , . . . , v n ),

• m > n. Allora, i vettori w1 , w2 , . . . , w m sono linearmente dipendenti. Esempio 13.20. 1. Abbiamo           1 1 2 −1 1 • , ∈ Span , , ,◮ 1 3 3 0 1     1 2 ◮. • e sono linearmente indipendenti ◮ 1 3

    1 1 è ovvio, mentre per ab1 3 biamo mostrato una combinazione lineare nell’Esempio 11.2-2.

◮ Per

◮ ◮ Esempio 13.5-1.

Infatti abbiamo 2 6 3. 2. Abbiamo           2 −1 1 1 0 • , , ∈ Span , ,◮ 3 0 1 0 1 • 3 > 2.       2 −1 1 Infatti i vettori , e sono linearmente dipendenti. ◮ 3 0 1 3. L’esempio precedente può essere generalizzato e possiamo dimostrare che non possono esistere tre vettori linearmente indipen2 2 denti  né in R2 né nel piano V E , infatti abbiamo visto che R = 0 1 e quindi, per la Proposizione 13.19, comunque , Span 1 0 consideriamo m vettori colonna con m > 2, essi sono linearmente dipendenti. ◮ 4. Generalizzando ancora abbiamo che non possono esistere n+1 vettori linearmente indipendenti in Kn , infatti Kn è generato da n vet◮ e quindi, per la Proposizione 13.19, comunque consideriamo tori ◮ m vettori colonna con m > n, essi sono linearmente dipendenti. Osservazione 13.21. 1. Siano X (1) , X (2) , . . . , X (k) ∈ Kn vettori colonna con coordinate  (1)   (2)   (k)  x1 x1 x  (1)   (2)   1(k)  x2  x2  x2  (2) (k)      X (1) =   ..  , X =  ..  , . . . , X =  ..  .  .   .   .  (1) (2) (k) xn xn xn Siano i1 , i2 , . . . , im indici con 1 6 i1 < i2 < · · · < im 6 n, e siano Y (1) , Y (2) , . . . , Y (k) ∈ Km i vettori colonna ottenuti rispettivamente da X (1) , X (2) , . . . , X (k) , eliminando le coordinate con indici

c 2014 Gennaro Amendola

Versione 1.0

◮ Nell’Esempio abbiamo visto che   12.29-1  1 0 Span , = R2 . 0 1 ◮ Esempio 13.5-2.

◮ Usando un sistema di riferimento cartesiano in V 2E possiamo identificare i vettori geometrici con gli elementi di R2 , quindi lo stesso risultato vale anche per V 2E . ◮ ◮ Esempio 12.29-2.

Inserendo coordinate in vettori colonna linearmente indipendenti, essi restano linearmente indipendenti.

Lezione 13. Dipendenza e indipendenza lineare

13–7

diversi da i1 , i2 , . . . , im , ossia  (1)   (2)   (k)  x i1 x i1 x i1  (1)   (2)   (k)   x i2  xi2   x i2  (1) (2) (k)      Y =  . , Y =  . ,..., Y = .  . . .  .   .   ..  (1) (2) (k) x im x im x im Se i vettori colonna Y (1) , Y (2) , . . . , Y (k) sono linearmente indipendenti, allora anche i vettori colonna X (1) , X (2) , . . . , X (k) sono linearmente indipendenti. Per dimostrarlo, consideriamo una combinazione lineare dei vettori colonna X (1) , X (2) , . . . , X (k) il cui risultato è nullo, α1 X (1) + α2 X (2) + · · · + αk X (k) = 0n ,

e dimostriamo che αi = 0 per ogni i = 1, 2, . . . , k. Utilizzando le coordinate abbiamo il sistema  (1) (2) (k)  α1 x1 + α2 x1 + · · · + αk x1 = 0     α x(1) + α x(2) + · · · + α x(k) = 0 1 2 2 2 k 2 . ..   .    (1) (2) (k) α1 xn + α2 xn + · · · + αk xn = 0

Considerando soltanto le equazioni i1 -esima, i2 -esima,. . . , im -esima, abbiamo il sistema  (1) (2) (k)  α1 xi1 + α2 xi1 + · · · + αk xi1 = 0     α x(1) + α x(2) + · · · + α x(k) = 0 1 i2 2 i2 k i2 , .  ..     (k) (2) (1) α1 xim + α2 xim + · · · + αk xim = 0 che, in forma vettoriale, è equivalente a

α1 Y (1) + α2 Y (2) + · · · + αk Y (k) = 0m .

Visto che stiamo assumendo che i vettori colonna Y (1) , Y (2) , . . . , Y (k) sono linearmente indipendenti, abbiamo αi = 0 per ogni i = 1, 2, . . . , k, ossia che i vettori colonna X (1) , X (2) , . . . , X (k) sono linearmente indipendenti. 2. Considerando l’implicazione contronominale ◮ di quanto enunciato sopra otteniamo che se i vettori colonna X (1) , X (2) , . . . , X (k) sono linearmente dipendenti, allora anche i vettori colonna Y (1) , Y (2) , . . . , Y (k) sono linearmente dipendenti.     2 1 Esempio 13.22. 1. I due vettori colonna e sono linear3 1 mente indipendenti ◮ , quindi per l’Osservazione 13.21-1 anche i due vettori colonna,   ottenuti   inserendo arbitrariamente la seconda 2 1    coordinata, −1 e 4 sono linearmente indipendenti ◮. 1 3

c 2014 Gennaro Amendola

Versione 1.0

Rimuovendo coordinate da vettori linearmente dipendenti, essi restano linearmente dipendenti. ◮ Remark 3.9.

◮ Esempio 13.5-1.

◮ Il conto esplicito (Esercizio 13.9-3) è inutile.

Lezione 13. Dipendenza e indipendenza lineare

13–8

      2 −1 1 2. I tre vettori colonna 3,  0  e 1 sono linearmente di7 1 2 pendenti ◮, quindi per l’Osservazione 13.21-2 anche i tre vettori colonna, rimuovendo arbitrariamente la terza coordinata,    ottenuti    2 −1 1 , e sono linearmente dipendenti ◮. 3 0 1 Osservazione 13.23. Il viceversa di quanto enunciato nell’Osservazione 13.21 non è vero (i controesempi sono nell’esempio sotto). 1. Se i vettori colonna X (1) , X (2) , . . . , X (k) sono linearmente indipendenti, allora i vettori colonna Y (1) , Y (2) , . . . , Y (k) possono essere linearmente dipendenti (oppure essere linearmente indipendenti). 2. Analogamente, se i vettori colonna Y (1) , Y (2) , . . . , Y (k) sono linearmente dipendenti, allora i vettori colonna X (1) , X (2) , . . . , X (k) possono essere linearmente indipendenti (oppure essere linearmente dipendenti).   1  Esempio 13.24. 1. Il singolo vettore 0 è linearmente indipen0   0 dente. Rimuovendo la prima coordinata diventa che è li0 nearmente dipendente, mentre rimuovendo la seconda coordinata   1 che è linearmente indipendente. ◮ diventa 0       2 −1 1 2. I tre vettori , e sono linearmente dipendenti ◮. In3 0 1   2  serendo una terza coordinata possiamo ottenere i tre vettori 3, 7     −1 1  0  e 1 che sono linearmente dipendenti ◮, oppure i tre 1 2       −1 1 2      0 e 1 che sono linearmente indipendenti ◮ . vettori 3 , 2 0 1

◮ La combinazione lineare con coefficienti 1, −1, −3 ha come risultato 03 (Esercizio 13.1). ◮ Esempio 13.5-2.

Inserendo coordinate in vettori colonna linearmente dipendenti, essi possono restare linearmente dipendenti o diventare linearmente indipendenti. Rimuovendo coordinate da vettori colonna linearmente indipendenti, essi possono restare linearmente indipendenti o diventare linearmente dipendenti.

◮ Osservazione 13.6.

◮ Esempio 13.5-2.

◮ La combinazione lineare con coefficienti 1, −1, −3 ha come risultato 03 (Esercizio 13.1). ◮ Esercizio 13.2.

Proposizione 13.25. Sia V uno spazio vettoriale, siano v 1 , v 2 , . . . , v n vettori linearmente indipendenti in V , e sia v un vettore in V . I seguenti fatti sono equivalenti fra loro: • v1 , v 2 , . . . , v n , v sono linearmente indipendenti, • v 6∈ Span (v 1 , v 2 , . . . , v n ).

Non daremo la dimostrazione di questa proposizione, anche se non è difficile. Osservazione 13.26. La proposizione precedente è vera anche se consideriamo zero vettori (che sono linearmente indipendenti) di V e v ∈ V . Infatti, v è linearmente indipendente se e solo se v 6= 0 ◮, ossia v 6∈ {0} = Span (∅). c 2014 Gennaro Amendola

Versione 1.0

◮ Osservazione 13.6.

Lezione 13. Dipendenza e indipendenza lineare

13–9

1. Consideriamo di R3 dell’Esempio 13.24-2.  ivettori   −1 1 Abbiamo che i due vettori  0  e 1 sono linearmente indi      1 2 1 −1 2 ◮ ◮ Lo sono i tre vettori 3,  0  e 1, pendenti .       2 1 0 −1 1 2 quindi per l’Osservazione 13.10 lo sono   −1 1 I tre vettori  0 , 1 e 3 sono linearmente indipendenti, anche  0  e 1. 1 2 0 2 1       −1 1 2 ◮ Exercise 12.2. infatti 3 6∈ Span  0  , 1 ◮. 2 0 1       2 −1 1 I tre vettori  0 , 1 e 3 sono linearmente dipendenti, 7 2 1       2 −1 1       ◮ Esercizio 12.13. infatti 3 ∈ Span 0 , 1 ◮. 7 1 2

Esempio 13.27.

2. Dati i due vettori geometrici linearmente indipendenti in V 3E , v 1 e v 2 , mostrati nella figura, essi generano un piano π. Il vettore geometrico w appartiene al piano π, quindi i vettori v 1 , v 2 , w sono linearmente dipendenti. Invece, il vettore geometrico u non appartiene al piano π, quindi i vettori v 1 , v 2 , u sono linearmente indipendenti.

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 13/S1 DIPENDENZA E INDIPENDENZA LINEARE 1

Sessione di Studio 13.1

Dipendenza e indipendenza lineare

Lezione 13. Dipendenza e indipendenza lineare

13–10

Sessione di Studio 13.1       1 −1 2      e 1 sono linearmente indi0 Esercizio 13.1. I vettori 3 , 2 1 7 pendenti?     −1 2    Soluzione. No, infatti l’equazione in forma vettoriale a 3 +b 0 + 1 7   1 c 1 = 03 ha una soluzione non nulla, per esempio (a, b, c) = (1, −1, −3). 2       2 −1 1 Esercizio 13.2. I vettori 3,  0  e 1 sono linearmente indi0 1 2 pendenti?     −1 2 Soluzione. Sì, infatti l’equazione in forma vettoriale a 3 +b  0  + 0 1   1 c 1 = 03 ha solo la soluzione nulla (a, b, c) = (0, 0, 0). 2 Esercizio 13.3. I vettori denti?

Esempio 13.22-2.

Esempio 13.24-2.

      2 −1 1 , e sono linearmente indipen0 0 1

      2 −1 1 ◮ Soluzione. No, perché = −2 +0 . 0 0 1

◮ Proposizione 13.7.

    2 0 Esercizio 13.4. I vettori e sono linearmente indipendenti? 0 0 Soluzione. No, perché uno di essi è nullo. ◮

◮ Osservazione 13.12.

Esercizio 13.5. I polinomi x + 1, x3 − x e x3 − x2 sono linearmente indipendenti?  Soluzione. Sì, perché l’equazione in forma vettoriale α(x+1)+β x3 − x +  ◮ Abbiamo visto come risolvere le equazioni γ x3 − x2 = 0 ha solo la soluzione nulla (α, β, γ) = (0, 0, 0) ◮ . in forma vettoriale nella Lezione 10.

    2 −1 Esercizio 13.6. 1. Dimostra che i vettori 3 e  0  sono linear0 1 mente indipendenti.

c 2014 Gennaro Amendola

Versione 1.0

Lezione 13. Dipendenza e indipendenza lineare

13–11

  2 2. Giustapponi a essi un vettore colonna X ∈ R3 tale che 3, 0   −1  0  e X sono linearmente dipendenti. 1   2 3. Giustapponi a essi un vettore colonna X ∈ R3 tale che 3, 0   −1  0  e X sono linearmente indipendenti. 1

1. Nessuno dei due vettori è un multiplo dell’altro.         −1 0 2 0        0 e 0 sono linear2. Ad esempio, X = 0 , infatti 3 , 0 0 1 0 mente dipendenti perché uno di essi è nullo.

Soluzione.

3. Per la Proposizione 13.25, il vettore colonna  stiamo  cer che  X −1 2 cando è uno qualsiasi tale che X 6∈ Span 3 ,  0 . ◮ Un 1 0         −1 2 −1 2          è a 3 +b 0  = vettore generico di Span 3 , 0 1 0 1 0   2a − b  3a , quindi, se per esempio la seconda e la terza coordinata b ◮. Allora, il vettore colonna sono   0, anche la prima deve essere  0   1 2 −1 0 non appartiene a Span 3 ,  0  e quindi esso è il 0 0 1 vettore X che stiamo cercando.     3 1 Esercizio 13.7. 1. Dimostra che i vettori e sono linear0 0 mente dipendenti. 2. Inserisci in essi una coordinata in modo che diventino linearmente indipendenti. 3. Inserisci in essi una coordinata in modo che rimangano linearmente dipendenti. Soluzione.

1. Il primo vettore è un multiplo (il triplo) del secondo.

2. Per  esempio,   inseriamo una terza coordinata, ottenendo i vettori 3 1 0 e 0, che sono linearmente indipendenti perché nessuno di 0 1 essi è un multiplo dell’altro. c 2014 Gennaro Amendola

Versione 1.0

Osservazione 13.8.

◮ Nota che possiamo usare la Proposizione 13.25 già dimostra perché abbiamo   2 −1 to che 3 e  0  sono linearmente 0 1 indipendenti.

◮ Esso corrisponde a (a, b) = (0, 0).

Lezione 13. Dipendenza e indipendenza lineare

13–12

3. Peresempio, inseriamo una terza coordinata, ottenendo i vetto   3 1 ri 0 e 0, che sono linearmente dipendenti perché il primo 0 0 vettore è un multiplo (il triplo) del secondo. Esercizio 13.8. 1. Dimostra che 1 e i sono linearmente indipendenti come elementi dello spazio vettoriale C sul campo R. 2. Dimostra che 1 e i sono linearmente dipendenti come elementi dello spazio vettoriale C sul campo C. Soluzione. 1. Considera una combinazione lineare di 1 e i con coefficienti reali il cui risultato è 0: a · 1 + b · i = 0.

Ovviamente, a e b devono essere 0, quindi i due vettori complessi sono linearmente indipendenti su R. 2. La combinazione lineare a · 1 + b · i = 0,

con a = i e b = −1 è una combinazione lineare di 1 e i con coefficienti complessi il cui risultato è 0 e con coefficienti non nulli.

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 13/S2 DIPENDENZA E INDIPENDENZA LINEARE 1

Sessione di Studio 13.2

Dipendenza e indipendenza lineare

Lezione 13. Dipendenza e indipendenza lineare

13–13

Sessione di Studio 13.2 Esercizio 13.9. Quali dei seguenti sono linearmente indipendenti?   1 1. . 5     2 0 2. , . −1 0     2 1 3. −1 , 4. 3 1     2 −2    4. −1 , 1 . 3 −3     −2 2 5. −1 , −1. −3 3       1 2 1      6. 2 , 3 , 1 . 1 −1 1       2 0 2 1  1   3       7.  1 , −3 , −5. 1 2 5     −3 + i 0 8. , . 5 2i     2−i 1 + 2i 9. , . i −1 10. I due vettori geometrici v 1 e v 2 mostrati nella figura.

11. I tre vettori geometrici w1 , w2 e w3 mostrati nella figura. 12. t3 − 2t2 + t, t2 − t − 1, t3 − t − 2 ∈ R[t]. Esercizio 13.10.

1. Dimostra che i vettori

linearmente dipendenti.

      2 3 −6 , e sono 1 1 −2

2. Scegli due di essi che sono linearmente dipendenti. 3. Scegli due di essi che sono linearmente indipendenti.     1 0    Esercizio 13.11. 1. Dimostra che i vettori −1 e 0 sono li1 1 nearmente indipendenti. 2. Rimuovi da essi una coordinata in modo che rimangano linearmente indipendenti. 3. Rimuovi da essi una coordinata in modo che diventino linearmente dipendenti. c 2014 Gennaro Amendola

Versione 1.0

Esempio 13.22-1.

Lezione 13. Dipendenza e indipendenza lineare

13–14

Risultato dell’Esercizio 13.9. 1. Sì. 2. No. 3. Sì. 4. No. 5. Sì. 6. Sì. 7. No. 8. Sì. 9. No. 10. Sì. 11. No. 12. No. Risultato dell’Esercizio 13.10. 1. Considera una combinazione lineare generica dei vettori il cui risultato è il vettore nullo, e trova coefficienti non tutti nulli che soddisfano l’equazione. ◮     3 −6 2. e . 1 −2     3 2 . e 3. Per esempio, 1 1 1. Usa l’Osservazione 13.8.     1 0 2. Per esempio, rimuovi la seconda coordinata, ottenendo e . 1 1     0 1 . e 3. Rimuovi la terza coordinata, ottenendo 0 −1

Risultato dell’Esercizio 13.11.

c 2014 Gennaro Amendola

Versione 1.0

◮ Osservazione 13.4.

Questo esercizio non ha un’unica soluzione, quindi il lettore può trovare una soluzione diversa. Questo esercizio non ha un’unica soluzione, quindi il lettore può trovare una soluzione diversa.

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 13/S3 DIPENDENZA E INDIPENDENZA LINEARE 1

Sessione di Studio 13.3

Dipendenza e indipendenza lineare

Lezione 13. Dipendenza e indipendenza lineare

13–15

Sessione di Studio 13.3 Letture supplementari possono essere le seguenti: • http://it.wikipedia.org/wiki/Indipendenza_lineare

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 13/S3 Dipendenza e indipendenza lineare 3

Sessione di Studio 13.3 Quiz

Dipendenza e indipendenza lineare

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 13/S3 Dipendenza e indipendenza lineare 3

• Risolvere il seguente quiz a risposta multipla in cui per ogni domanda una sola risposta è giusta. • Rivedere le risposte del quiz.

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 14 BASI E COORDINATE 1

Lezione 14 Basi e coordinate

Lezione 14

Basi e coordinate In questa lezione ci occuperemo delle basi. Negli spazi vettoriali finitamente generati con le basi possiamo parametrizzare i vettori attraverso n-tuple di numeri, ossia identificare i vettori con i vettori colonna. Questa identificazione ci permetterà di studiare solo i vettori colonna, perché ciò che diremo varrà anche per tutti gli spazi vettoriali finitamente generati in virtù dell’identificazione.

14.1

Basi

Per semplicità, d’ora in poi, considereremo quasi esclusivamente spazi vettoriali finitamente generati. Molte delle cose che diremo possono essere generalizzate (alcune in maniera naturale, altre in maniera non banale) anche a spazi vettoriali che non sono finitamente generati. Definizione 14.1. Una base di uno spazio vettoriale V è un insieme finito ordinato B = {v 1 , v 2 , . . . , v n } i cui vettori v 1 , v 2 , . . . , v n generano V e sono linearmente indipendenti.     2 1 Esempio 14.2. 1. L’insieme ordinato , è una base di 3 1     2 1 R2 , infatti i due vettori e sono linearmente indipendenti ◮ 3 1 e generano R2 . ◮       2 −1 1 2. L’insieme ordinato , , non è una base di R2 , in3 0 1       2 −1 1 fatti i tre vettori , e sono linearmente dipendenti ◮; 3 0 1 essi generano R2 ◮, ma ciò non è sufficiente affinché formino una base.   1 3. L’insieme ordinato non è una base di R2 , infatti il vettore 1   1 ◮ ◮ , ma ciò ◮; esso è linearmente indipendente ◮ non genera R2 ◮ 1 non è sufficiente affinché formi una base.

c 2014 Gennaro Amendola

Versione 1.0

Base

◮ Esempio 13.5-1. ◮ Esercizio 12.8.

◮ Esempio 13.5-2. ◮ Per

la

Proposizione 12.22 ab    2 1 biamo Span , ⊂ 3 1       2 −1 1 Span , , ; visto che 3 0 1 2 il primo è tutto R , anche il secondo lo è.     1 1 ◮ . ◮ Ad esempio, 0 6∈ Span 1 ◮ ◮ Osservazione 13.6. ◮

Lezione 14. Basi e coordinate

14–2

Osservazione 14.3. La Definizione 14.1 vale anche per tutti i sottospazi vettoriali di un generico spazio vettoriale, infatti ogni sottospazio vettoriale è di per sé uno spazio vettoriale. ◮   1 Esempio 14.4. L’insieme ordinato è una base del sottospazio 1       1 1 1 2 genera Span di R , infatti il vettore vettoriale Span 1 1 1 ed è linearmente indipendente. Osservazione 14.5. Se V = {0}, allora solo l’insieme vuoto ∅ è contenuto in V , è formato da vettori linearmente indipendenti ◮ ed è tale che Span (∅) = {0}. Quindi, l’insieme vuoto è l’unica base dello spazio vettoriale {0}.

◮ Definizione 12.1.

Span

  1 è uno spazio vettoriale. 1

◮ Osservazione 13.3-2.

Osservazione 14.6. Supponiamo che B sia una base non vuota di uno spazio vettoriale V , ossia V 6= {0}. L’ordine dei vettori di B è parte della base stessa. Cambiando l’ordine dei vettori, ottieniamo una base B ′ di V diversa da B. Infatti, i vettori di B ′ sono gli stessi di quelli di B, e quindi generano V e sono linearmente indipendenti, ossia formano una base di V . Però l’ordine è diverso, e quindi B ′ 6= B.

L’importanza dell’ordine dei vettori di una base sarà chiara in seguito.

Definizione 14.9. Chiamiamo base canonica di Kn l’insieme ordinato

Base canonica di Kn

Alcuni distinguono tra “base” e “base ordinata”, dando due diverse definizioni. Per noi c’è una sola definizione, per cui una base è ordinata.

Notazione 14.7. La notazione scelta per indicare una base, ossia B = {v 1 , v 2 , . . . , v n }, non rappresenta solo l’insieme formato dai vettori v 1 , v 2 , . . . , v n , ma anche l’ordine, ossia v1 è il primo, v2 è il secondo,. . . , v n è l’ultimo. Questo, però, succederà solo per le basi e sarà chiaro dal contesto: generalmente, la notazione {v 1 , v 2 , . . . , v n } rappresenta solo l’insieme formato dai vettori v 1 , v 2 , . . . , v n .     1 2 Esempio 14.8. L’insieme ordinato , è una base di R2 ◮ ◮ I due vettori sono linearmente indipendenti 1 3 e generano R2 . diversa da quella dell’Esempio 14.2-1 perché l’ordine dei vettori è diverso. En := {e1 , e2 , . . . , en },



 x1  x2    dove ei è il vettore colonna  .  tale che xi = 1 e xj = 0 per ogni  .. 

j 6= i, ossia

  1 0   e1 :=  .  ,  ..  0

xn

  0 1   e2 :=  .  ,  ..  0

...,

  0 0   en :=  .  .  ..  1

Notazione 14.10. Se non ci sono ambiguità, indicheremo En semplicemente con E.

Osservazione 14.11. La notazione è lievemente ambigua: ad esempio, 2 1 con  e1 indichiamo sia il vettore colonna ( 0 ) ∈ K che il vettore colonna 1 0 0

∈ K3 . Tuttavia, sarà chiaro dal contesto quale dei vettori stiamo considerando. c 2014 Gennaro Amendola

Versione 1.0

Lezione 14. Basi e coordinate

14–3

Proposizione 14.12. La base canonica En è effettivamente una base di Kn .

Dobbiamo dimostrare che l’insieme ordinato En è effettivamente una base di Kn : non è sufficiente chimarlo “base canonica” per essere sicuri che sia una base.

Dimostrazione. (∗∗) Cominciamo dimostrando che i vettori e1 , e2 , . . . , en sono linearmente indipendenti. Consideriamo una combinazione lineare che ha come risultato il vettore colonna nullo, λ1 e1 + λ2 e2 + · · · + λn en = 0,

◮ Osservazione 13.4. e dimostriamo che i coefficienti λi sono tutti nulli ◮. Abbiamo           1 0 0 λ1 0 0 1 0  λ2  0           λ1 e1 +λ2 e2 +· · ·+λn en = λ1  . +λ2  . +· · ·+λn  .  =  .  =  .  ,  ..   ..   ..   ..   .. 

0

0

1

λn

0

ossia λi = 0 per ogni i = 1, 2, . . . , n. Dimostriamo ora che i vettori colonna e1 , e2 , . . . , en generano Kn .  t Consideriamo un generico vettore colonna x1 x2 · · · xn di Kn e dimostriamo che esso è il risultato di una combinazione lineare dei vettori colonna e1 , e2 , . . . , en . Abbiamo         0 0 1 x1 0 1 0  x2           ..  = x1  ..  +x2  ..  +· · ·+xn  ..  = x1 e1 +x2 e2 +· · ·+xn en , . . .  .  0

0

xn

t

1



quindi x1 x2 · · · xn ∈ Span (e1 , e2 , . . . , en ) e la dimostrazione è completa. Algoritmo 14.13 (Estrazione di una base). Sia X = {v 1 , v 2 , . . . , v n } un insieme finito ordinato di generatori di uno spazio vettoriale V . I passi dell’algoritmo sono n. Al passo i-esimo si decide se tenere o scartare il vettore vi : • il vettore v i viene tenuto se esso, insieme agli altri vettori tenuti fino a quel momento, forma un insieme di vettori linearmente indipendenti; • il vettore v i viene scartato altrimenti (ossia se esso, insieme agli altri vettori tenuti fino a quel momento, forma un insieme di vettori linearmente dipendenti). I vettori tenuti dopo gli n passi, ordinati come in X, sono il risultato dell’algoritmo. Osservazione 14.14. Nel primo passo dobbiamo controllare se il vettore v 1 , da solo, è linearmente indipendente, ossia se è diverso da 0. Se non è nullo lo teniamo, altrimenti lo scartiamo. Se scartiamo v 1 dobbiamo ripetere questa procedura per v 2 , e così via finché non troviamo un vettore diverso da 0. Quando abbiamo trovato il primo vettore da tenere (ossia il primo non nullo), dobbiamo proseguire cercando il secondo vettore da tenere. Dobbiamo controllare se il vettore che stiamo considerando, con il primo

c 2014 Gennaro Amendola

Versione 1.0

Estrazione di una base

Lezione 14. Basi e coordinate

14–4

vettore che abbiamo tenuto, forma una coppia di vettori linearmente indipendenti. Visto che il primo vettore tenuto è diverso da 0, ciò significa che il vettore che stiamo considerando non è multiplo del vettore tenuto. Quando troviamo il secondo vettore da tenere, proseguiamo cercando il terzo vettore da tenere. Dobbiamo controllare se il vettore che stiamo considerando, con i primi due vettori che abbiamo tenuto, forma una terna di vettori linearmente indipendenti. Proseguendo, ad ogni passo, dobbiamo controllare se il vettore che stiamo considerando, con i vettori già tenuti, forma un insieme di vettori linearmente indipendenti, ossia se il vettore che stiamo considerando non appartiene allo spazio vettoriale generato dai vettori già tenuti ◮.

◮ Proposizione 13.25.

Esempio 14.15. 1. L’algoritmo può essere rappresentato con uno schema come il seguente (gli indici dei vettori tenuti o scartati sono casuali): v1 = 0 scartato il vettore 0 è linearmente dipendente v2 = 0 scartato il vettore 0 è linearmente dipendente v3 = 0 scartato il vettore 0 è linearmente dipendente v 4 6= 0 tenuto il vettore v4 è linearmente indipendente v 5 = kv 4 scartato i vettori v 4 , kv 4 sono linearmente dipendenti v 6 = hv 4 scartato i vettori v 4 , hv 4 sono linearmente dipendenti v 7 6= lv 4 ∀l tenuto i vettori v 4 , v 7 sono linearmente indipendenti v8 tenuto i vettori v 4 , v 7 , v 8 sono linearmente indipendenti v9 scartato i vettori v 4 , v 7 , v 8 , v 9 sono linearmente dipendenti v 10 scartato i vettori v 4 , v 7 , v 8 , v 10 sono linearmente dipendenti v 11 tenuto i vettori v 4 , v 7 , v 8 , v 11 sono linearmente indipendenti v 12 scartato i vettori v 4 , v 7 , v 8 , v 11 , v 12 sono linearmente dipendenti v 13 scartato i vettori v 4 , v 7 , v 8 , v 11 , v 13 sono linearmente dipendenti Il risultato è l’insieme ordinato {v 4 , v 7 , v 8 , v 11 }.       2 4 1 2. Applichiamo l’algoritmo all’insieme ordinato , , . 3 6 1     2 2 tenuto il vettore è linearmente indipendente 3    3   4 2 4 scartato i vettori , sono linearmente dipendenti 6  3  6  1 2 1 tenuto i vettori , sono linearmente indipendenti 1 3 1     2 1 Il risultato è l’insieme ordinato , . 3 1       2 −1 1 3. Applichiamo l’algoritmo all’insieme ordinato , , . 3 0 1     2 2 tenuto il vettore è linearmente indipendente 3    3   −1 2 −1 tenuto i vettori , sono linearmente indipendenti 0 3     0   1 2 −1 1 scartato i vettori , , sono linearmente dipendenti 1 3 0 1 c 2014 Gennaro Amendola

Versione 1.0

Lezione 14. Basi e coordinate

14–5

    2 −1 Il risultato è l’insieme ordinato , . 3 0 4. Fissiamo un sistema di riferimento cartesiano (O; x1 , x2 , x3 ) nello spazio V 3E . Chiamiamo i, j e k i tre vettori geometrici che hanno coordinate rispettivamente (1, 0, 0), (0, 1, 0) e (0, 0, 1), che sono linearmente indipendenti per la Proposizione 14.12. Consideriamo i vettori geometrici, i, j, 2i + j, k, i + k ∈ V 3E . Applicando l’algoritmo a questo insieme ordinato di vettori i passi sono i j 2i + j k i+k

tenuto tenuto scartato tenuto scartato

il vettore i è linearmente indipendente i vettori i, j sono linearmente indipendenti i vettori i, j, 2i + j sono linearmente dipendenti i vettori i, j, k sono linearmente indipendenti i vettori i, j, k, i + k sono linearmente dipendenti

Il risultato è l’insieme ordinato {i, j, k}.

Proposizione 14.16. Il risultato dell’algoritmo di estrazione di una base (Algoritmo 14.13) è una base di V .

Dovremmo dimostrare che il risultato dell’algoritmo è effettivamente una base di V.

Non daremo la dimostrazione di questa proposizione, anche se non è difficile. Esempio 14.17. Per la proposizione precedente tutti i risultati dell’Esempio 14.15 sono basi di rispettivi spazi vettoriali che essi generano. ◮

◮ Non è necessario dimostrarlo per via della Proposizione 14.16.

Osservazione 14.18. Cambiando l’ordine dei vettori dell’insieme X nell’algoritmo di estrazione di una base il risultato dell’algoritmo può cambiare. Infatti, ad esempio, un vettore scartato, se cambiando l’ordine è considerato prima, può essere tenuto, come mostrato nell’esempio seguente.       2 1 −1 , , , Esempio 14.19. Applichiamo l’algoritmo all’insieme ordinato 3 1 0 ottenuto riordinando l’insieme ordinato considerato nell’Esempio 14.153.   2 3 1 1  −1 0

  2 tenuto il vettore è linearmente indipendente  3   2 1 tenuto i vettori , sono linearmente indipendenti 3 1   2 1 −1 scartato i vettori , , sono linearmente dipendenti 3 1 0     2 1 Il risultato è la base , , che è diversa da quella trovata 3 1 nell’Esempio 14.15-3. Teorema 14.20. Siano v 1 , v 2 , . . . , v n generatori di uno spazio vettoriale V . Allora, esistono indici i1 , i2 , . . . , im con 1 6 i1 < i2 < · · · < im 6 n tali che {v i1 , v i2 , . . . , v im } è una base di V . Dimostrazione. Applichiamo l’algoritmo di estrazione di una base all’insieme ordinato X = {v 1 , v 2 , . . . , v n } di generatori di V . Otteniac 2014 Gennaro Amendola

Versione 1.0

Lezione 14. Basi e coordinate

14–6

mo un sottoinsieme Y di X, ordinato come in X, ossia esistono indici i1 , i2 , . . . , im con 1 6 i1 < i2 < · · · < im 6 n tali che Y = {v i1 , v i2 , . . . , v im }. Per la Proposizione 14.16, abbiamo che Y è una base di V . Osservazione 14.21. Dalla definizione di base ◮ deduciamo che solo gli spazi vettoriali finitamente generati possono avere una base, infatti se abbiamo una base B = {v 1 , v 2 , . . . , v n } di uno spazio vettoriale V , i vettori v1 , v 2 , . . . , v n generano V , che quindi è finitamente generato. Teorema 14.22. Ogni spazio vettoriale finitamente generato ha una base. Dimostrazione. Chiamiamo V lo spazio vettoriale. Se V = {0}, allora ∅ è una base di V . ◮ Se invece V è uno spazio vettoriale finitamente generato diverso da {0}, consideriamo un insieme finito di generatori {v 1 , v 2 , . . . , v n } di V ; per il Teorema 14.20, esiste una base di V .

Le basi possono essere definite anche per gli spazi vettoriali che non sono finitamente generati, ma evitiamo di dare la definizione generale. ◮ Definizione 14.1.

Esistenza di una base Questo teorema è il viceversa dell’osservazione precedente. ◮ Osservazione 14.5.

Esempio 14.23. 1. Fissiamo un sistema di riferimento cartesiano (O; x, y) nel piano V 2E . Chiamiamo i e j i due vettori geometrici che hanno coordinate rispettivamente (1, 0) e (0, 1), che formano una base in virtù della Proposizione 14.12. Analogamente, fissiamo un sistema di riferimento cartesiano (O; x, y, z) nello spazio V 3E . Chiamiamo i, j e k i tre vettori geometrici che hanno coordinate rispettivamente (1, 0, 0), (0, 1, 0) e (0, 0, 1), che formano una base in virtù della Proposizione 14.12. 2. Lo spazio vettoriale Kn ha la base En . ◮

◮ Proposizione 14.12.

Proposizione 14.24. Sia B un insieme finito ordinato di vettori di uno spazio vettoriale V . Allora, i seguenti fatti sono equivalenti fra loro: • B è una base di V ,

• ogni vettore di V è il risultato di una e una sola combinazione lineare degli elementi di B.

Non daremo la dimostrazione di questa proposizione, anche se non è difficile.

Esempio 14.25. 1. Consideriamo la base {i, j} di V 2E descritta nell’Esempio 14.23-1. Ogni vettore geometrico del piano V 2E è il risultato di una e una sola combinazione lineare degli elementi i e j, com mostrato nella figura per il vettore geometrico v = 3i + 2j. Lo stesso risultato vale per la base {i, j, k} di V 3E .     1 2 è una base di R2 ◮, in, 2. L’insieme ordinato B = 1 3   x1 fatti ogni vettore ∈ R2 è il risultato di una e una sola x2 combinazione lineare degli elementi di B ◮

Teorema 14.26. Tutte le basi di uno spazio vettoriale V hanno lo stesso numero di elementi.

c 2014 Gennaro Amendola

Versione 1.0

◮ Esempio 14.2-1.

  2 ◮ La combinazione lineare è (x2 − x1 ) + 3   1 (3x1 − 2x2 ) e i coefficienti sono univo1 camente determinati (Esempio 13.17-2).

Lezione 14. Basi e coordinate

14–7

Dimostrazione. (∗∗) È sufficiente dimostrare che comunque scegliamo due basi B e B ′ il numero degli elementi di B è uguale al numero degli elementi di B ′ . Chiamiamo n il numero degli elementi di B, e n′ il numero degli elementi di B ′ . Diamoun nome agli elementi delle due basi: B = {v 1 , v 2 , . . . , v n } e B ′ = v ′1 , v ′2 , . . . , v ′n′ . Abbiamo che valgono le due proprietà seguenti: • v′1 , v ′2 , . . . , v ′n′ ∈ Span (v 1 , v 2 , . . . , v n ), perché v 1 , v 2 , . . . , v n generano V ; • v′1 , v ′2 , . . . , v ′n′ sono linearmente indipendenti. Quindi abbiamo n′ 6 n. ◮ Viceversa, abbiamo che valgono le due proprietà seguenti:  • v1 , v 2 , . . . , v n ∈ Span v ′1 , v ′2 , . . . , v ′n′ , perché v ′1 , v ′2 , . . . , v n′ generano V ; • v1 , v 2 , . . . , v n sono linearmente indipendenti. Quindi abbiamo n 6 n′ . ◮ Dalle due disuguaglianze deduciamo che n = n′ .     2 1 Esempio 14.27. 1. Visto che , è una base di R2 , tutte 3 1 le basi di R2 hanno 2 elementi, infatti tutte le basi di R2 che abbiamo visto sopra hanno due elementi:             1 0 1 2 2 −1 E2 = {e1 , e2 } = , , , , , . 0 1 1 3 3 0

◮ Proposizione 13.18.

◮ Proposizione 13.18.

2. Visto che En è una base di Kn , tutte le basi di Kn hanno n elementi.

3. Visto che abbiamo mostrato una base di V 2E ◮, tutte le basi di V 2E hanno 2 elementi. Analogamente, visto che abbiamo mostrato una base di V 3E ◮, tutte le basi di V 3E hanno 3 elementi.

14.2

◮ Esempio 14.23-1.

◮ Esempio 14.23-1.

Coordinate

Definizione 14.28. Sia B = {v1 , v 2 , . . . , v n } una base di uno spazio vettoriale V , e sia v un vettore di V . Le coordinate di v rispetto alla base B sono i coefficienti λ1 , λ2 , . . . , λn della (unica) combinazione lineare di v 1 , v 2 , . . . , v n il cui risultato è v ◮,

Coordinate rispetto a una base

◮ Proposizione 14.24.

v = λ1 v 1 + λ2 v 2 + · · · + λn vn .

Esempio 14.29. 1. Consideriamo l’Esempio 14.25-1. Le coordinate del vettore geometrico v rispetto alla base {i, j} di V 2E sono i coefficienti 3 e 2 della (unica) combinazione lineare di i e j il cui risultato è v: v = 3i + 2j.     2 1 2. Consideriamo la base B = , di R2 . ◮ Le coordinate del 3 1 c 2014 Gennaro Amendola

Versione 1.0

◮ Esempio 14.2-1.

Lezione 14. Basi e coordinate

14–8

  5 vettore colonna rispetto alla base B sono i coefficienti 4 e −3 9     2 1 della (unica) combinazione lineare di e il cui risultato è 3 1   5 ◮ : 9       5 2 1 =4 −3 . 9 3 1     1 0 3. Consideriamo ora la base standard E2 = , di R2 . ◮ Le 0 1   5 coordinate del vettore colonna rispetto alla base E2 sono i 9     1 0 coefficienti 5 e 9 della (unica) combinazione lineare di e 0 1   5 : il cui risultato è 9       5 1 0 =5 +9 . 9 0 1 Definizione 14.30. Siano λ1 , λ2 , . . . , λn le coordinate di un vettore v rispetto a una base B di uno spazio vettoriale V . Il vettore colonna di Kn che ha come entrate queste coordinate è detto vettore delle coordinate o rappresentazione di v rispetto alla base B, ed è indicato con   λ1  λ2    [v]B :=  .  .  .. 

◮ Esempio 13.17-1.

◮ Definizione 14.9.

Vettore coordinate/rappresentazione

delle

[·]·

λn

Esempio 14.31. Consideriamo i vettori dell’Esempio 14.29. 1. Il vettore delle coordinate del vettore geometrico v rispetto alla base {i, j} è   3 [v]{i,j} = . 2   5 rispetto alla 2. Il vettore delle coordinate del vettore colonna 9 base B è     4 5 = . −3 9 B   5 3. Il vettore delle coordinate del vettore colonna rispetto alla 9 base E2 è     5 5 . = 9 9 E

Per i vettori colonna, attenzione a non confondere le coordinate  delvettore colonna, 5 che in questo caso è , e le coordina9 te dello stesso vettore rispetto a una base diversa dalla base canonica.

2

Osservazione 14.32. 1. Se B = {v1 , v 2 , . . . , v n }, allora [v i ]B = ei ◮ with i = 1, 2, . . . , n. c 2014 Gennaro Amendola

Versione 1.0

◮ Definizione 14.9.

Lezione 14. Basi e coordinate

14–9

2. Cambiando l’ordine degli elementi di una base B di uno spazio vettoriale V le coordinate di un vettore v cambiano per un opportuno riordinamento delle coordinate di v rispetto alla base B. Più precisamente, se B = {v 1 , v 2 , . . . , v n } e se σè una funzione bigettiva da {1, . . . , n} in sé stesso ◮, allora B ′ = v σ(1) , v σ(2) , . . . , v σ(n) è ◮ Se le coordinate di un vettore v ∈ V rispetto alla una base di V . ◮ base B sono λ1 , λ2 , . . . , λn , allora le coordinate di v rispetto alla base B ′ sono λσ(1) , λσ(2) , . . . , λσ(n) .  t 3. Le coordinate di un vettore colonna v = x1 x2 · · · xn ∈ Kn rispetto alla base canonica En sono proprio x1 , x2 , . . . , xn , e il vettore delle coordinate coincide con il vettore colonna stesso, ossia  t [v]En = x1 x2 · · · xn .

Esempio 14.33. Consideriamo i vettori dell’Esempio 14.29. ◮ 1. a) I vettori delle coordinate dei due vettori della base {i, j} rispetto alla base stessa {i, j} sono     1 0 [i]{i,j} = e [j]{i,j} = 0 1

infatti abbiamo i = 1 · i + 0 · j e j = 0 · i + 1 · j. b) I vettori delle coordinate dei due vettori della base B rispetto alla base stessa B sono         0 1 1 2 = = e 1 0 1 B 3 B           2 1 1 2 2 + =0· e +0· =1· infatti abbiamo 3 1 1 3 3   1 1· . 1 2.

a) Le coordinate del vettore geometrico v rispetto alla base {j, i} sono 2 e 3, infatti abbiamo v = 2j + 3i.   5 rispetto alla base Bs = b) Le coordinate del vettore colonna 9     2 1 sono −3 e 4, infatti abbiamo , 3 1       2 1 5 . +4 = −3 3 1 9

3. Abbiamo visto  sopra che il vettore delle coordinate del vettore 5 rispetto alla base E2 è colonna 9     5 5 . = 9 9 E 2   5 rispetInvece, il vettore delle coordinate del vettore colonna 9     1 0 , ottenuta dalla base canonica , to alla base E2c = 0 1 c 2014 Gennaro Amendola

Versione 1.0

Adesso risulta chiaro il motivo per cui l’ordine dei vettori fa parte della definizione di base.

◮ Una tale funzione è detta permutazione. ◮ ◮ Osservazione 14.6.

◮ Notiamo che la numerazione dei punti in questo esempio si riferisce ai punti dell’osservazione precedente, e non ai punti dell’Esempio 14.29.

Lezione 14. Basi e coordinate

14–10

cambiando l’ordine dei suoi elementi, è     5 9 = , 9 E 5 2c

infatti abbiamo       5 0 1 =9 +5 . 9 1 0

Osservazione 14.34. Sia B = {v 1 , v 2 , . . . , v n } una base di uno spazio vettoriale V . La funzione [·]B : V ∋ v 7−→ [v]B ∈ Kn

è bigettiva. Infatti, la funzione [·]B è ben definita  einiettiva per la λ1  λ2    Proposizione 14.24, ed è surgettiva perché per ogni  .  ∈ Kn abbiamo  .. 





λn

λ1  λ2     ..  = [λ1 v 1 + λ2 v 2 + · · · + λn v n ]B .  .  λn

Esempio 14.35. 1. Consideriamo la base {i, j} di V 2E dell’Esempio 14.23-1. Le coordinate di un generico vettore geometrico v che 2 alla base {i, j} sono x e y, ha coordinate (x, y) ∈ V  E rispetto  x quindi abbiamo [v]{i,j} = . La funzione y   x [·]{i,j} : V 2E ∋ (x, y) 7−→ [(x, y)]{i,j} = ∈ R2 y è bigettiva.     2 1 2. Consideriamo la base B = , di R2 . Le coordinate di 3 1   x1 ∈ R2 rispetto alla base B sono un generico vettore colonna x2     x2 − x1 x1 ◮ . = x2 − x1 e 3x1 − 2x2 , quindi abbiamo 3x1 − 2x2 x2 B La funzione       x2 − x1 x1 x1 2 ∈ R2 = 7−→ [·]B : R ∋ 3x1 − 2x2 x2 B x2 è bigettiva. ◮

◮ Esercizio 6.4.

Osservazione 14.36. Abbiamo appena visto che, se abbiamo una base B = {v 1 , v 2 , . . . , v n } di uno spazio vettoriale V , possiamo parametrizzare i vettori di V attraverso n-uple di elementi di K, o equivalentemente attraverso vettori colonna di Kn .

c 2014 Gennaro Amendola

◮ Esempio 13.17-2.

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 14/S1 BASI E COORDINATE 1

Sessione di Studio 14.1

Basi e coordinate

Lezione 14. Basi e coordinate

14–11

Sessione di Studio 14.1 Esercizio 14.1. Trova una base di ogni spazio vettoriale K6m [x], con m ∈ N. Scrivi le coordinate del polinomio 2x2 − x + 3 ∈ K63 [x] rispetto alla base trovata.  Soluzione. Una base di K6m [x] è 1, x, x2 , . . . , xm . Infatti questi ◮. polinomi generano K6m [x] ◮ e sono linearmente indipendenti ◮ Le coordinate sono 3, −1, 2, infatti abbiamo 2x2 − x + 3 = 3 · 1 + (−1) · x + 2 · x2 .

◮ Esempio 12.16-6. ◮ ◮ Esempio 13.5-4.

Esercizio 14.2. Quali dei seguenti insiemi ordinati di vettori sono una base del rispettivo spazio vettoriale?     3 6 1. , di R2 . 5 10       −1 1   1 2. 0 , 1 − i , 1 di C3 .   i 0 0  3. x2 , x, 3x − 2x2 di R62 [x]. 4. {v 1 , v 2 , v 3 , v 4 } di V 3E .

Soluzione.

1. No. I vettori non sono linearmente indipendenti. ◮

◮ 2. Sì. I vettori generano C3 e sono linearmente indipendenti. ◮ ◮ 3. No. I polinomi non generano R62 [x]. ◮ ◮

4. No. Il numero degli elementi di una base di V

3 E

deve essere

tre. ◮

Esercizio 14.3. Trova una base dello spazio vettoriale  W = X ∈ R3 x1 − 3x2 + 5x3 = 0 .     −5 3 Soluzione. Abbiamo che W = Span 1 ,  0 . ◮ Visto che i 0 1     3 −5 vettori 1 e  0  sono linearmente indipendenti ◮, abbiamo che 0 1     −5   3 l’insieme ordinato 1 ,  0  è una base di W .   0 1 Esercizio 14.4. Trova le coordinate e il vettore delle coordinate dei vettori seguenti rispetto alle basi dei rispettivi spazi vettoriali.       3 5 4 1. X = ,B= , di R2 . −1 1 1  2. p(x) = 1, B = x3 − x, x2 , x + 3, x2 − 2 di R63 [x].

c 2014 Gennaro Amendola

Versione 1.0

◮ Abbiamo visto come controllare se alcuni vettori sono linearmente indipendenti nella Lezione 13. ◮ ◮ Abbiamo visto come controllare se alcu-

ni vettori generano uno spazio vettoriale e se sono some linearmente indipendenti rispettivamente nelle Lezioni 12 e 13. ◮ ◮ ◮ Abbiamo visto come controllare se alcuni vettori generano uno spazio vettoriale nella Lezione 12. ◮ Esempio 14.23-1 e Teorema 14.26.

◮ Abbiamo visto come trovare alcuni vettori che generano uno spazio vettoriale nella Lezione 12. ◮ Abbiamo visto come controllare se alcuni vettori sono linearmente indipendenti nella Lezione 13.

Lezione 14. Basi e coordinate

14–12 

 3 Soluzione. 1. La soluzione dell’equazione in forma vettoriale = −1     5 4 λ1 + λ2 è (λ1 , λ2 ) = (7, −8), quindi le coordinate sono 7 1 1   7 e −8. Il vettore delle coordinate è [X]B = . −8  2. La soluzione dell’equazionein forma vettoriale 1 = α x3 − x +  β x2 + γ(x+ 3)+ δ x2 − 2 è (α, β, γ, δ) = 0, 12 , 0, − 21 , quindi le coordinate sono 0, 12 , 0 e − 21 . Il vettore delle coordinate è [p(x)]B =   0  1   2 .  0  − 21 Esercizio 14.5. Trova dellecoordinate del  lecoordinate e il vettore    3 4 5 ′ vettore colonna X = rispetto alla base B = , di R2 , −1 1 1 usando il risultato dell’Esercizio 14.4-1. Soluzione. In virtù dell’Osservazione 14.32-2 un cambiamento nell’ordine dei vettori della base si traduce in un cambiamento corrispondente dell’ordine delle coordinate,  che  diventano −8 e 7. Il vettore delle −8 coordinate diventa [X]B′ = . 7

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 14/S2 BASI E COORDINATE 1

Sessione di Studio 14.2

Basi e coordinate

Lezione 14. Basi e coordinate

14–13

Sessione di Studio 14.2 Esercizio 14.6. Quali dei seguenti sono una base del rispettivo spazio vettoriale?     3 + 3i 1−i 1. , di C2 . −6 2i     3 + 3i 1−i 2. , di C2 . −6 2       2 1   1 3. 3 , 1 , 2 di R3 .   2 3 2         0 1 −1 1             1 1 0  0  4.   ,   ,   ,   di R4 . −1 0 −1 −1       1 2 0 2  5. 3x3 + x2 + 4, x2 − x + 2, 2x3 − x + 1, x3 + 1 di R63 [x].

Esercizio 14.7. Trova una base dello spazio vettoriale  W = X ∈ R4 x1 − 2x2 + x3 − x4 = 0, x1 − x2 − x3 = 0 .

Esercizio 14.8. Applica l’algoritmo di estrazione di una base all’insieme ordinato           1 2 2 1 0               2 4 2 4   ,   ,   ,   , 0 .  0   0  0  0  1     −1 −2 0 −3 1

Esercizio 14.9. Trova le coordinate e il vettore delle coordinate dei vettori seguenti rispetto alle basi dei rispettivi spazi vettoriali.       1 + 3i i 1−i 1. X = ,B= , di C2 . −2 + i −1 1       −2 3 −3 2. X = ,B= , di R2 . 1 −2 1          −4 2 1   1 3. X = −1, B = 3 , 1 , 2 di R3 .   −6 2 3 2            4 0 −1 1 1              0 , B =  1  ,  1  ,  0  ,  0  di R4 . 4. X =  −7  0  −1 −1 −2      1 7 2 0 2  5. p(t) = 4t2 − t − 6, B = t2 − 1, t + 1, t2 + t − 1 di R62 [t]. 6. v shown in the figure, {i, j} di V 2E ◮.

◮ Esempio 14.23-1.

c 2014 Gennaro Amendola

Versione 1.0

Lezione 14. Basi e coordinate

14–14

Esercizio 14.10. Trova  lecoordinate e il vettore delle coordinate del 4 0  vettore colonna X =  −7 rispetto alla base 7          1  1 0 −1             0 1 1 , , , 0  B′ =  −2 −1  0  −1      1 0 2 2

di R4 , usando il risultato dell’Esercizio 14.9-4.

c 2014 Gennaro Amendola

Versione 1.0

Lezione 14. Basi e coordinate

14–15

Risultato dell’Esercizio 14.6. 1. No. 2. Sì. 3. Sì. 4. No. 5. Sì.     −3 1         2 −1 ,  . Risultato dell’Esercizio 14.7.   1   0      0 1        0  2 1           2 2  ,   , 0 . Risultato dell’Esercizio 14.8.   0  0 1      1 0 −1   2 . Risultato dell’Esercizio 14.9. 1. 2, i. [X]B = i  1 −3 2. − 31 , 13 . [X]B = . 1 3

3. 1, −2,

4. −1, 1,

5. 3, −2, 6. −1, 1.



 1 −1. [X]B = −2. −1   −1 1  0, 3. [X]B =   0 . 3   3  1. [p(t)]B = −2. 1   −1 [v]{i,j} = . 1

Risultato dell’Esercizio 14.10. 3, 1, −1, 0. [X]B′

c 2014 Gennaro Amendola



 3 1  = −1. 0

Versione 1.0

Questo esercizio non ha un’unica soluzione, quindi il lettore può trovare una soluzione diversa.

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 14/S3 BASI E COORDINATE 1

Sessione di Studio 14.3

Basi e coordinate

Lezione 14. Basi e coordinate

14–16

Sessione di Studio 14.3 Letture supplementari possono essere le seguenti: • http://it.wikipedia.org/wiki/Base_(algebra_lineare) • http://en.wikipedia.org/wiki/Standard_basis??

• http://it.wikipedia.org/wiki/Coordinate_di_un_vettore

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 14/S3 Basi e coordinate 3

Sessione di Studio 14.3 Quiz

Basi e coordinate

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 14/S3 Basi e coordinate 3

• Risolvere il seguente quiz a risposta multipla in cui per ogni domanda una sola risposta è giusta. • Rivedere le risposte del quiz.

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 15 DIMENSIONE 1

Lezione 15 Dimensione

Lezione 15

Dimensione In questa lezione ci occuperemo della dimensione. Essa è una misura di quanto è “grande” uno spazio vettoriale, ossia è il numero di parametri necessari per parametrizzare lo spazio vettoriale. La dimensione semplificherà anche la ricerca delle basi degli spazi vettoriali.

15.1

Dimensione

Definizione 15.1. La dimensione di uno spazio vettoriale finitamente generato V è il numero degli elementi di una qualsiasi delle sue basi, ed è indicata con dim(V ).

Dimensione

Osservazione 15.2. La definizione ha senso, infatti: • visto che V è uno spazio vettoriale finitamente generato, esso ha almeno una base; ◮

Dobbiamo essere sicuri che la definizione possa essere data per ogni spazio vettoriale finitamente generato, che la definizione non dipenda dalla base scelta (arbitrariamente).

• tutte le basi di V hanno lo stesso numero di elementi.

◮ ◮

2 E

Esempio 15.3. 1. La dimensione di V è 2, infatti {i, j} è una base ◮ di V 2E ◮ con 2 elementi. ◮ Analogamente, la dimensione di V 3E è 3, infatti {i, j, k} è una base di V 3E ◮ con 3 elementi.     2 1 2 ◮ 2. La dimensione di R è 2, infatti , è una base di R2 ◮ 3 1 con 2 elementi. 3. Generalizzando, we have that the dimension of Kn è n, infatti la base canonica En di Kn ◮ ha n elementi.

Osservazione 15.4. La Definizione 15.1 vale anche per tutti i sottospazi vettoriali di un generico spazio vettoriale, infatti ogni sottospazio vettoriale è di per sé uno spazio vettoriale. ◮   1 Esempio 15.5. Il sottospazio vettoriale Span di R2 ha dimen1     1 1 ◮ con 1 elemento. sione 1, infatti è una base di Span 1 1

Osservazione 15.6. Dall’Osservazione 14.5 deduciamo che dim(V ) = 0 se e solo se V = {0}. c 2014 Gennaro Amendola

Versione 1.0

◮ Teorema 14.22. ◮ ◮ Teorema 14.26.  dim V 2E = 2

◮ ◮ ◮ Esempio 14.23-1.  dim V 3E = 3 ◮ Esempio 14.23-1.

◮ ◮ Esempio 14.2-1.

dim (Kn ) = n ◮ Proposizione 14.12.

◮ Definizione 12.1.

Span

  1 è uno spazio vettoriale. 1

◮ Esempio 14.4.

Lezione 15. Dimensione

15–2

Definizione 15.7. Uno spazio vettoriale finitamente generato è anche detto di dimensione finita. Osservazione 15.8. La dimensione dello spazio vettoriale C sul campo ◮ R ◮ è 2. Infatti, una base è {1, i}. ◮ Notiamo che invece la dimensione dello spazio vettoriale C sul campo C stesso è 1. Infatti, C = C1 quindi, per l’Esempio 15.3-3, abbiamo dim C1 = 1. Alcuni distinguono questi casi con la notazione dimK (V ), ma noi non avremo bisogno di questa distinzione, quindi non appesantiremo la notazione e useremo solamente dim(V ). Gli spazi vettoriali Cn saranno sempre pensati come uno spazio vettoriale su C.

Spazio vettoriale di dimensione finita Abbiamo definito la dimensione solo per spazi vettoriali di dimensione finita, quindi la dimensione è un numero naturale e questa definizione sembra essere inutile. Tuttavia, la definizione di dimensione può essere data anche per spazi vettoriali che non sono finitamente generati: in questo caso essa sarebbe infinita e quindi non un numero naturale. Ciò spiega perché abbiamo dato questa definizione. ◮ Esempio 10.6-5. ◮ ◮ Esercizi 12.9 e 13.8.

Corollario 15.9. Sia n la dimensione di uno spazio vettoriale finitamente generato V , e siano v 1 , v 2 , . . . , v k vettori di V . Le seguenti proprietà sono soddisfatte: • se v 1 , v 2 , . . . , v k sono linearmente indipendenti, allora k 6 n; • se v 1 , v 2 , . . . , v k generano V , allora n 6 k.

Dimostrazione. Sia B = {w1 , w 2 , . . . , wn } una base di V , con n vettori ◮ Dimostriamo le due proprietà. • Supponiamo che v 1 , v 2 , . . . , v k sono linearmente indipendenti. Visto che i vettori w1 , w2 , . . . , w n generano V , per la Proposizione 13.18 abbiamo k 6 n. ◮ • Supponiamo che v 1 , v 2 , . . . , v k generano V . Visto che i vettori w1 , w 2 , . . . , wn sono linearmente indipendenti, per la Proposizione 13.18 abbiamo n 6 k. ◮ Osservazione 15.10. A seconda delle necessità, possiamo interpretare il risultato precedente in due modi equivalenti. 1. Siano v1 , v 2 , . . . , v k vettori in V , allora

◮ dim(V ) = n.

◮ Il ruolo dei vettori v ∗ e w∗ è scambiato rispetto a quello della Proposizione 13.18.

◮ Questa volta il ruolo dei vettori v ∗ e w ∗ è lo stesso di quello della Proposizione 13.18.

Il concetto è sempre lo stesso: rispetto al corollario precedente qui stiamo cambiando solo le parole.

• se v 1 , v 2 , . . . , v k sono linearmente indipendenti, la dimensione di V è almeno k; • se v 1 , v 2 , . . . , v k generano V , la dimensione di V è al più k.

2. Supponiamo di sapere che la dimensione di V sia n, allora

• non possiamo trovare più di n vettori linearmente indipendenti in V ; • non possiamo trovare meno di n generatori di V .

2 Esempio 15.11. Consideriamo nello spazio vettoriale    R, che  ha  di2 −1 1 ◮ ◮, e , e mensione 2 ◮, i vettori linearmente dipendenti 3 0 1   1 ◮ ◮ il vettore linearmente indipendente ◮. Generalizzando, consideria1 mo anche k vettori nello spazio vettoriale Kn , che ha dimensione n ◮. Il Corollario 15.9 afferma che questi fatti sono legati tra loro. 1. Possiamo dedurre indicazioni sulla dimensione di R2 (o Kn ) da informazioni note sui vettori.

c 2014 Gennaro Amendola

Versione 1.0

◮ Esempio 15.3-2. ◮ ◮ Esempio 13.5-2. ◮ ◮ ◮ Osservazione 13.6. ◮ Esempio 15.3-3.

Lezione 15. Dimensione

• a) b) • a) b)

15–3

  1 Dal fatto che è linearmente indipendente deduciamo 1  che dim R2 > 1. Se sappiamo che i k vettori di Kn sono linearmente indipendenti, deduciamo che dim (Kn ) > k.       2 −1 1 Dal fatto che , e generano R2 deduciamo 3 0 1  che dim R2 6 3. Se sappiamo che i k vettori generano Kn , deduciamo che dim (Kn ) 6 k.

2. Al contrario, possiamo dedurre indicazioni sui vettori da informazioni note sulla dimensione di R2 o Kn .  • a) Dal fatto che dim R2 = 2, deduciamo che, visto che       2 −1 1 3 > 2, i tre vettori , e non possono essere 3 0 1 linearmente indipendenti. b) Dal fatto che dim (Kn ) = n, deduciamo che, se k > n, i k vettori di Kn sono linearmente dipendenti.  • a) Dal fatto che dim R2 = 2, deduciamo che, visto che   1 1 < 2, il vettore non può generare R2 . 1 b) Dal fatto che dim (Kn ) = n, deduciamo che, se k < n, i k vettori di Kn non possono generare Kn . Corollario 15.12. Sia M il massimo numero di vettori linearmente indipendenti di uno spazio vettoriale finitamente generato V , e m il minimo numero di generatori di V . Allora, si ha dim(V ) = M = m. Dimostrazione. (∗∗) Chiamiamo, per semplicità, n la dimensione di V . Allora esiste una base B = {v 1 , v 2 , . . . , v n } di V formata da n vettori. Visto che M è il massimo numero di vettori linearmente indipendenti di V , esistono M vettori w1 , w2 , . . . , w M linearmente indipendenti. Visto che m è il minimo numero di generatori di V , esistono m vettori u1 , u2 , . . . , um che generano V . Visto che i vettori v 1 , v 2 , . . . , v n sono linearmente indipendenti e che M è il massimo numero di vettori linearmente indipendenti di V , abbiamo n 6 M . Ma per il Corollario 15.9 applicato ai vettori w 1 , w2 , . . . , wM , we have M 6 n. Quindi abbiamo n = M . Visto che i vettori v 1 , v 2 , . . . , v n generano V e che m è il minimo numero di generatori di V , abbiamo m 6 n. Ma per il Corollario 15.9 applicato ai vettori u1 , u2 , . . . , um , abbiamo n 6 m. Quindi abbiamo n = m. Esempio 15.13. Il minimo numero di generatori di R2 , il massimo numero di vettori linearmente indipendenti di R2 , e la dimensione di R2 è 2. Analogamente, il minimo numero di generatori di Kn , il massimo numero di vettori linearmente indipendenti di Kn , e la dimensione di Kn è n. c 2014 Gennaro Amendola

Versione 1.0

Lezione 15. Dimensione

15–4

Algoritmo 15.14 (Completamento a una base). Sia X = {v 1 , v 2 , . . . , v m } un sottoinsieme ordinato di vettori linearmente indipendenti di uno spazio vettoriale finitamente generato V . Al passo i-esimo, • se Span (v 1 , v 2 , . . . , v m+i−1 ) 6= V , si sceglie un vettore v m+i che non appartiene a Span (v 1 , v 2 , . . . , v m+i−1 );

Completamento a una base

• se Span (v 1 , v 2 , . . . , v m+i−1 ) = V , l’algoritmo termina e il risultato è l’insieme ordinato {v 1 , v 2 , . . . , v m+i−1 }.

Osservazione 15.15. Se Span (v 1 , v 2 , . . . , v m ) = V dall’inizio, l’algoritmo precedente termina subito con risultato {v 1 , v 2 , . . . , v m }. Altrimenti, l’algoritmo non dà mai un risultato univocamente determinato: infatti, la scelta dei vettori v i è arbitraria (si richiede solo che v i 6∈ Span (v 1 , v 2 , . . . , v m+i−1 )).

Osservazione 15.16. L’algoritmo di completamento a una base può essere applicato anche al sottoinsieme X = ∅. In questo caso, al primo passo cercheremo un vettore che non appartenga a Span (∅) = {0}, ossia un vettore diverso da 0. Osservazione 15.17. Ad ogni passo dell’algoritmo di completamento a una base, otteniamo un insieme di vettori linearmente indipendenti. Ciò è una conseguenza della Proposizione 13.25, infatti cominciamo con vettori linearmente indipendenti e ad ogni passo consideriamo un vettore che non appartiene al sottospazio vettoriale generato dai precedenti. Esempio 15.18. 1. L’algoritmo può essere rappresentato con uno schema come il seguente (cominciamo da X = {v 1 , v 2 , . . . , v m }): Span (v 1 , v 2 , . . . , v m ) 6= V Span (v 1 , v 2 , . . . , v m , v m+1 ) 6= V Span (v 1 , v 2 , . . . , v m , v m+1 , v m+2 ) 6= V .. . Span (v 1 , v 2 , . . . , v m , v m+1 , . . . , v m+k−1 ) 6= V Span (v 1 , v 2 , . . . , v m , v m+1 , . . . , v m+k ) = V

scegliamo v m+1 6∈ Span (v 1 , v 2 , . . . , v m )

scegliamo v m+2 6∈ Span (v 1 , v 2 , . . . , v m , v m+1 )

scegliamo v m+3 6∈ Span (v 1 , v 2 , . . . , v m , v m+1 , v m+2 ) scegliamo v m+k 6∈ Span (v 1 , v 2 , . . . , v m , v m+1 , . . . , v m+k−1 )

l’algoritmo termina

Il risultato è l’insieme ordinato {v 1 , v 2 , . . . , v m , v m+1 , . . . , v m+k }.

2. Applichiamo l’algoritmo all’insieme vuoto X = ∅ in R2 : ◮   1 2 Span(∅) 6= R scegliamo 6∈ Span(∅) = {0}   0   1 0 1 Span 6= R2 scegliamo 6∈ Span 0 1 0     1 0 Span , = R2 l’algoritmo termina 0 1     1 0 Il risultato è l’insieme ordinato , . 0 1 c 2014 Gennaro Amendola

Versione 1.0

◮ Abbiamo visto come controllare se un vettore appartiene a un sottospazio vettoriale generato da alcuni vettori nella Lezione 12.

Lezione 15. Dimensione

15–5

   2  3. Applichiamo l’algoritmo all’insieme (ordinato) X = −1 in   3 R3 : ◮ 

◮ Abbiamo visto come controllare se un vettore appartiene a un sottospazio vettoriale generato da alcuni vettori nella Lezione 12.

     2 1 2 3         Span −1 6= R scegliamo 1 6∈ Span −1  3    0  3    2 1 0 2 1 3             Span −1 , 1 6= R scegliamo 0 6∈ Span −1 , 1 1 3 0  3  0   0 2 1 Span −1 , 1 , 0 = R3 l’algoritmo termina 1 0 3       1 0   2 Il risultato è l’insieme ordinato −1 , 1 , 0 .   3 0 1     0 0 Se al primo passo avessimo scelto il vettore  0  ◮, al secondo ◮ Lo possiamo fare perché  0  6∈ −1 −1     2 0 Span −1. ◮ 3   passo non avremmo potuto scegliere 0 ◮. Avremmo potuto sce      1 2 0 0   ◮   Perché 0 ∈ Span −1 ,  0 . ◮ 1 1 3 −1 ◮ gliere, ad esempio, 0 ◮ ◮, e avremmo ottenuto l’insieme ordinato   1 0 ◮ 0 ◮ 6∈       ◮ Lo possiamo fare perché 0 0 1   2     2 0 −1 ,  0  , 0 . Span −1 ,  0 .   0 3 −1 3 −1

Proposizione 15.19. L’algoritmo di completamento a una base (Algoritmo 15.14) termina dopo un numero finito di passi, e il suo risultato è una base di V .

Dovremmo dimostrare sia che l’algoritmo termina, sia che il risultato dell’algoritmo è effettivamente una base di V .

Non daremo la dimostrazione di questa proposizione, anche se non è difficile. Esempio 15.20. Per la proposizione precedente tutti i risultati dell’Esempio 15.18 sono basi dei rispettivi spazi vettoriali. ◮ Osservazione 15.21. Per essere precisi, vengono fatti dim(V ) − m + 1 passi. Nei primi dim(V )−m passi scegliamo  i vettori, mentre nell’ultimo controlliamo che Span v 1 , v 2 , . . . , v dim(V ) = V , ossia che l’algoritmo termina.

◮ Non è necessario dimostrarlo per via della Proposizione 15.19.

Esempio 15.22. Rivediamo i casi dell’Esempio 15.18. 1. I passi dell’algoritmo sono k+1. Visto che V = Span (v 1 , v 2 , . . . , v m , v m+1 , . . . , v m+k ), abbiamo che dim(V ) = m + k, quindi abbiamo che il numero di passi dell’algoritmo è dim(V ) − m + 1.  2. I passi dell’algoritmo sono 3. Visto che dim R2 = 2, abbiamo che il numero di passi dell’algoritmo è dim R2 − 0 + 1. c 2014 Gennaro Amendola

Versione 1.0

Lezione 15. Dimensione

15–6

 3. I passi dell’algoritmo sono 3. Visto che dim R3 = 3, abbiamo che il numero di passi dell’algoritmo è dim R3 − 1 + 1.

Teorema 15.23. Sia W un sottospazio vettoriale di uno spazio vettoriale finitamente generato V . Allora, anche W è finitamente generato, e si ha dim(W ) 6 dim(V ). Dimostrazione. (∗∗) Applichiamo l’algoritmo di completamento a una base al sottoinsieme X = ∅ dello spazio vettoriale W . Visto che non sappiamo se W è finitamente generato, non sappiamo se l’algoritmo termina dopo un numero finito di passi. Se l’algoritmo termina dopo un numero finito di passi, otteniamo un insieme ordinato di vettori {w1 , w 2 , . . . , w m } tali che Span (w1 , w2 , . . . , w m ) = W , ossia W è finitamente generato. Supponiamo ora che l’algoritmo non termina dopo un numero finito di passi. Allora, dopo dim(V )+1 passi otteniamo un insieme ordinato di vettori w1 , w 2 , . . . , wdim(V )+1 . Essi sono linearmente indipendenti ◮, ◮ Osservazione 15.17. e quindi abbiamo dim(V ) + 1 6 dim(V ) ◮. Questa è una contraddizio- ◮ Corollario 15.9. ne, quindi l’algoritmo termina dopo un numero finito di passi e W è finitamente generato.  Per dimostrare che dim(W ) 6 dim(V ), consideriamo una base B = w1 , w2 , . . . , w dim(W ) di W , che ha dim(W ) elementi e che esiste per il Teorema 14.22. Visto che i vettori w1 , w 2 , . . . , wdim(W ) sono linearmente ◮ Corollario 15.9. indipendenti, abbiamo dim(W ) 6 dim(V ). ◮ Esempio 15.24. 1. Ogni sottospazio vettoriale di Kn è finitamente generato, e la sua dimensione è al più n. 2. Ogni sottospazio vettoriale di V 2E (risp. V 3E ) è finitamente generato, e la sua dimensione è al più 2 (risp. 3). Teorema 15.25. Siano v 1 , v 2 , . . . , v m vettori linearmente indipendenti di uno spazio vettoriale finitamente generato V . Allora, esistono vettori v m+1 , v m+2 , . . . , v n tali che {v 1 , v 2 , . . . , v n } è una base di V . Dimostrazione. Applichiamo l’algoritmo di completamento a una base al sottoinsieme ordinato X = {v 1 , v 2 , . . . , v m } di V . Il risultato dell’algoritmo è una base {v 1 , v 2 , . . . , v n } di V . ◮ I vettori v m+1 , v m+2 , . . . , v n sono i vettori che stiamo cercando. Corollario 15.26. Sia n la dimensione di uno spazio vettoriale finitamente generato V , e siano v 1 , v 2 , . . . , v n vettori di V . I seguenti fatti sono equivalenti fra loro: • i vettori v 1 , v 2 , . . . , v n sono linearmente indipendenti; • i vettori v 1 , v 2 , . . . , v n generano V .

◮ Proposizione 15.19.

Supponiamo che stiamo cercando una base di V sapendo già la dimensione n di V . Se troviamo n vettori linearmente indipendenti, possiamo dire che essi formano automaticamente una base. Analogamente, se troviamo n generatori di V , possiamo dire che essi formano automaticamente una base.

Dimostrazione. (∗∗) Cominciamo dimostrando che se i vettori v 1 , v 2 , . . . , v n sono linearmente indipendenti, allora essi generano V . Supponiamo per assurdo che v 1 , v 2 , . . . , v n non generino V . Possiamo completare i vettori v 1 , v 2 , . . . , v n a una base di V , ossia esistono vettori v n+1 , v n+2 , . . . , v k tali che {v 1 , v 2 , . . . , v k } è una base di V . ◮ I vettori v 1 , v 2 , . . . , v k sono ◮ Teorema 15.25. linearmente indipendenti, quindi abbiamo k 6 n. ◮ Per costruzione ab- ◮ Corollario 15.9. c 2014 Gennaro Amendola

Versione 1.0

Lezione 15. Dimensione

15–7

biamo n 6 k, quindi abbiamo k = n, ossia {v 1 , v 2 , . . . , v n } è una base di V . Ciò contraddice la supposizione, fatta sopra, che v 1 , v 2 , . . . , v n non generino V . Viceversa, dimostriamo che se i vettori v 1 , v 2 , . . . , v n generano V , allora sono linearmente indipendenti. Supponiamo per assurdo che v1 , v 2 , . . . , v n non siano linearmente indipendenti. Possiamo estrarre dai vettori v1 , v 2 , . . . , v n una base di V , ossia esistono indici i1 , i2 , . . . , ik con 1 6 i1 < i2 < · · · < ik 6 n tali che {v i1 , v i2 , . . . , v ik } è una base di V . ◮ I vettori ◮ Teorema 14.20. v i1 , v i2 , . . . , v ik generano V , quindi abbiamo n 6 k. ◮ Per costruzione ◮ Corollario 15.9. abbiamo k 6 n, quindi abbiamo k = n, ossia {v 1 , v 2 , . . . , v n } è una base di V . Ciò contraddice la supposizione, fatta sopra, che v 1 , v 2 , . . . , v n non siano linearmente indipendenti. Corollario 15.27. Sia W un sottospazio vettoriale di uno spazio vettoriale finitamente generato V tale che dim(W ) = dim(V ). Allora, si ha W =V. Dimostrazione. Chiamiamo n = dim(W ) = dim(V ). Sia B = {v 1 , v 2 , . . . , v n } una base di W . I vettori v 1 , v 2 , . . . , v n sono linearmente indipendenti (perché formano una base), e la dimensione di V è n. Quindi, i vettori v 1 , v 2 , . . . , v n sono anche generatori di V . ◮ Visto che v 1 , v 2 , . . . , v n sono anche generatori di W (perché formano una base di W ), abbiamo W = Span (v1 , v 2 , . . . , v n ) = V .

In generale, l’uguaglianza tra le dimensioni di due spazi vettoriali non implica l’uguaglianza tra gli spazi vettoriali, ma se uno dei due è contenuto nell’altro, l’uguaglianza tra le loro dimensioni implica l’uguaglianza degli spazi vettoriali stessi.

◮ Corollario 15.26.

Esempio 15.28. 1. L’unico sottospazio vettoriale di Kn con dimenn sione n è K stesso. 2. L’unico sottospazio vettoriale di V 2E (risp. V 3E ) con dimensione 2 (resp. 3) è V 2E (risp. V 3E ) stesso. Osservazione 15.29. 1. Consideriamo lo spazio vettoriale V 2E . Il più piccolo sottospazio vettoriale di V 2E è {0} che ha dimensione 0. ◮ Se un sottospazio vettoriale di V 2E contiene un vettore geometrico non nullo v, deve anche contenere Span(v). Il sottospazio vettoriale Span(v), che è una retta, ha dimensione 1. ◮ Visto che dim(V 2E ) = 2 l’unico sottospazio vettoriale di V 2E che ha dimensione 2 è V 2E stesso. ◮ Non c’è nessun altro sottospazio vettoriale di V 2E . ◮ 2. Consideriamo lo spazio vettoriale V 3E . Il più piccolo sottospazio vettoriale di V 3E è {0} che ha dimensione 0. ◮ Se un sottospazio vettoriale di V 3E contiene un vettore geometrico non nullo v, deve anche contenere Span(v). Il sottospazio vettoriale Span(v), che è una retta, ha dimensione 1. ◮ Se un sottospazio vettoriale di V 3E = 2 has dimension 2, ha una base formata da due vettori geometrici ed è un piano. ◮ Visto che dim(V 3E ) l’unico sottospazio vettoriale di V 3E che ha ◮ dimensione 3 è V 3E stesso. ◮ ◮ Non c’è nessun altro sottospazio vettoriale di V 3E . ◮ ◮

c 2014 Gennaro Amendola

Versione 1.0

Sottospazi vettoriali di V 2E ◮ Osservazione 15.6.

◮ {v} è una base di Span(v) con un elemento. ◮ Corollario 15.27. ◮ Esempio 15.24-2.

Sottospazi vettoriali di V 3E ◮ Osservazione 15.6.

◮ {v} è una base di Span(v) con un elemento. ◮ Tutti i sottospazi vettoriali con dimensione 2 sono piani; inoltre, un piano che è un sottospazio vettoriale non è né {0} né una retta né tutto V 3E , quindi, per quanto detto sotto, deve avere dimensione 2. ◮ ◮ Corollario 15.27. ◮ ◮ ◮ Esempio 15.24-2.

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 15/S1 DIMENSIONE 1

Sessione di Studio 15.1

Dimensione

Lezione 15. Dimensione

15–8

Sessione di Studio 15.1 Esercizio 15.1. Applica l’algoritmo di completamento a una base all’insieme (ordinato) X = {v} mostrato nella figura in V 3E . Soluzione. Span(v) 6= V 3E Span(v, w) 6= V 3E Span(v, w, u) = V 3E

scegliamo w 6∈ Span(v) = r scegliamo u 6∈ Span(v, w) = π l’algoritmo termina

      3  2  1      Esercizio 15.2. 1. 2 , 1 , 2  è una base di R3 ?   0 −1 −1       1 2 0           −1 −1  ,   ,  0  è una base di R4 ? 2.   4   3  −1      0 5 4

◮ , quinSoluzione. 1. Sì. I tre vettori sono linearmente indipendenti  3 3 ◮ di sono anche generatori di R perché dim R = 3. ◮ Quindi, formano una base di R3 .  2. No. Visto che dim R4 = 4, abbiamo che una base di R4 deve essere formata da 4 elementi.

◮ Abbiamo visto come controllare se alcuni vettori sono linearmente indipendenti nella Lezione 13. ◮ ◮ Corollario 15.26.

Esercizio 15.3. Trova la dimensione dei seguenti spazi vettoriali.     1 5 1. Span  4  ,  2 . −7 −3         1 −2 2 1 2. Span , , , . 4 −8 7 5  3. X ∈ R3 3x1 − 2x2 + 4x3 = 0 .  4. X ∈ R3 5x1 − x2 + x3 = 0, x1 + x2 + 2x3 = 0 . 5. La retta mostrata nella figura nello spazio V 3E .

1. I due vettori sono Visto che linearmente   indipendenti.  1 5 ovviamente generano Span  4  ,  2 , essi formano una −7 −3          1 5 1 5 base di Span  4  ,  2 , quindi dim Span  4  ,  2  = −7 −3 −7 −3 2.

Soluzione.

2. Applichiamo di una base ◮ all’insieme or l’algoritmo    di  estrazione   1 −2 2 1 dinato , , , . 4 −8 7 5

c 2014 Gennaro Amendola

Versione 1.0

◮ Algoritmo 14.13.

Lezione 15. Dimensione

15–9

  1 è linearmente indipendente tenuto il vettore  4   1 −2 scartato i vettori , sono linearmente dipendenti 4 −8  1 2 tenuto i vettori , sono linearmente indipendenti 4   7   1 2 1 scartato i vettori , , sono linearmente dipendenti 4 7 5     1 2 Il risultato dell’algoritmo è la base , , quindi abbiamo L’ultimo passo è inutile, infatti do4 7 po il terzo passo abbiamo ottenuto          due vettori linearmente in 1 −2 2 1       indipendenti   1 −2 2 1 dim Span , , , = 2. Span , , , . Esso 4 −8 7 5 4 −8 7 5  2 sottospazio vettoriale di R , che 3. Una base dello spazio vettoriale X ∈ R3 3x1 − 2x2 + 4x3 = 0 è èha undimensione 2, quindi non può avere  2   4   dimensione maggiore di 2. −3   3 ◮ Abbiamo visto come trovare una base di l’insieme ordinato  1  ,  0  ◮, quindi abbiamo   uno spazio vettoriale nella Lezione 14. 0 1   dim X ∈ R3 3x1 − 2x2 + 4x3 = 0 = 2.  4. Una base dello spazio vettoriale X ∈ R3 5x1 − x2 + x3 = 0, x1 + x2 + 2x3 = 0   α    ◮ Abbiamo visto come trovare una base di è 3α  ◮, quindi abbiamo   uno spazio vettoriale nella Lezione 14. −2α   dim X ∈ R3 5x1 − x2 + x3 = 0, x1 + x2 + 2x3 = 0 = 1.   1 4  −2 −8  2 7  1 5

5. Una retta nello spazio V 3E ha dimensione 1. ◮

c 2014 Gennaro Amendola

◮ Osservazione 15.29-2.

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 15/S2 DIMENSIONE 1

Sessione di Studio 15.2 Dimensione

Lezione 15. Dimensione

15–10

Sessione di Studio 15.2 Esercizio 15.4. 1. È possibile trovare tre vettori geometrici linearmente indipendenti nel piano V 2E ? 2. È possibile trovare tre vettori geometrici linearmente indipendenti nello spazio V 3E ? 3. È possibile trovare due vettori geometrici che generano il piano V 2E ? 4. È possibile trovare due vettori geometrici che generano lo spazio V 3E ? Esercizio 15.5. Applica l’algoritmo di completamento a una base ai seguenti insiemi ordinati di vettori linearmente indipendenti dei corrispondenti spazi vettoriali.     2 2         3  −1 4 1.  , −5  0  di R .      0 1

2. ∅ di R3 .  3. x2 − x, x + 1 di R63 [x].             −1 −1  3 5 5  3             è una base di Span −1 , 2 , 4 ? −1 , 2 , 4 Esercizio 15.6. 1.   3 −3 3 −3 0 0         2 0 1  1            −1 1 0  ,   ,   , 0 è una base di R4 ? 2.  4  0  −1 0      2 0 3 2 Esercizio 15.7. Trova la dimensione dei seguenti spazi vettoriali.       2  3  0 1.  1  , 0 , 1 .   0 1 −1           3  1 0 0 0              1 0 1 1  1  , , , 2.  , 2 0 0 1  1 .      −2 1 1 0 4  3. X ∈ C3 ix1 − (1 + i)x2 + (3 − 2i)x3 = 0 .  4. X ∈ R4 x1 + x3 = 0, x1 + 2x4 = 0 . 5. La retta mostrata nella figura nel piano V 2E .

6. Il piano mostrato nella figura nello spazio V 3E .

c 2014 Gennaro Amendola

Versione 1.0

Lezione 15. Dimensione

15–11

Risultato dell’Esercizio 15.4. 1. No. 2. Sì. 3. Sì. 4. No.

Usa la Definizione 15.1 e il Corollario 15.9.

Risultato  dell’Esercizio     15.5.    2 2 1 0             3 −1 0  ,   ,   , 1 . 1.  −5  0  0 0      0 1 0 0       0 0   1 2. 0 , 1 , 0 .   0 0 1  3. x2 − x, x + 1, x3 , 1 .

Questo esercizio non ha un’unica soluzione, quindi il lettore può trovare una soluzione diversa.

Risultato dell’Esercizio 15.6. 1. No. 2. Sì.

Risultato dell’Esercizio 15.7.

1. 3.

2. 3. 3. 2. 4. 2. 5. 1. 6. 2.

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 15/S3 DIMENSIONE 1

Sessione di Studio 15.3

Dimensione

Lezione 15. Dimensione

15–12

Sessione di Studio 15.3 Letture supplementari possono essere le seguenti: • http://it.wikipedia.org/wiki/Dimensione_(spazio_vettoriale)

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 16 MATRICI 1

Lezione 16 Matrici

Lezione 16

Matrici In questa lezione introdurremo le matrici. Le matrici possono essere pensate come una generalizzazione dei vettori colonna. Esse sono fondamentali per il seguito.

16.1

Matrici

Definizione 16.1. Una matrice con n righe e m colonne su un insieme X è una tabella del tipo   a11 a12 · · · a1m  a21 a22 · · · a2m     .. .. ..  ..  . . . . 

Matrice

an1 an2 · · · anm

dove tutti gli elementi aij con i = 1, 2, . . . , n e j = 1, 2, . . . , m appartengono a X. Una matrice con n righe e m colonne è detta n × m, o anche di dimensione n × m. Se n, m ∈ N \ {0} sono fissati, l’insieme di tutte le matrici n × m sull’insieme X è indicato con X n,m . La i-esima riga è formata dagli elementi ai∗ , mentre la j-esima colonna è formata dagli elementi a∗j , ossia, rispettivamente,     a11 a12 · · · a1j · · · a1m a11 a12 · · · a1j · · · a1m  a21 a22 · · · a2j · · · a2m   a21 a22 · · · a2j · · · a2m       .. .. .. ..  .. .. ..   .. .. .. .. ..    . . . . . . . .  . . .   .    ai1 ai2 · · · aij · · · aim  e  ai1 ai2 · · · aij · · · aim  .      .. .. .. ..   .. .. .. ..  .. .. .. ..    . . . . . . . . . . . .  an1 an2 · · · anj · · · anm an1 an2 · · · anj · · · anm

Le righe della matrice (determinate dal primo indice, ossia i) sono contate da sopra a sotto, mentre le colonne (determinate dal secondo indice, ossia j) da sinistra a destra. j cresce



i cresce

←−−−−

a11  a21   ..  . an1

−−−−−→  a12 · · · a1m a22 · · · a2m   .. ..  .. . . .  an2 · · · anm

c 2014 Gennaro Amendola

Versione 1.0

Dimensione La scrittura n × m si legge “enne per emme”: ad esempio, 3 × 2 si legge “tre per due”. La i-esima riga è formata dagli elementi che hanno i come primo indice, mentre la j-esima colonna è formata dagli elementi che hanno j come secondo indice. Riga e colonna

Lezione 16. Matrici

16–2

Il posto (i, j) o entrata (i, j) della matrice è la posizione sulla i-esima riga e sulla j-esima colonna,   a11 a12 · · · a1j · · · a1m  a21 a22 · · · a2j · · · a2m     .. .. .. ..  .. ..  . . . . . .     ai1 ai2 · · · aij · · · aim  ,    .. .. .. ..  . . . .  . . . . . .  an1 an2 · · · anj · · · anm

Posto/entrata Ossia, è l’elemento comune della i-esima riga e della j-esima colonna.

ossia la posizione dell’elemento aij . La scrittura aij si legge “a i j”: a23 si legge “a due tre”. La matrice sopra è anche indicata con (aij )i=1,...,n . j=1,...,m   2 −1 0 Esempio 16.2. 1. La matrice su R ha dimensione −4 3 5 2,3 2 × 3, e quindi ha duerighe,  è un elemento  di R . Infatti,    2 −1 0 2 −1 0 2 −1 0 2 −1 0 e , e tre colonne, , −4 3 5 −4 3 5 −4 3 5 −4 3 5   2 −1 0 e . I suoi elementi sono indicati nella tabella seguen−4 3 5 te. Posto: Elemento: 

(1, 1) (1, 2) (1, 3) (2, 1) (2, 2) (2, 3) 2 -1 0 -4 3 5  1 3  3 0 2  La matrice   0 0 su R ha dimensione 4 × 2, e quindi è un √ 3 0 4,2 elemento di R .   2 −1 0 2. La tabella vista sopra può essere pensata anche −4 3 5 come una matrice su Z, infatti i suoi elementi appartengono a Z; 2,3 in  questo caso  la matrice è un elemento di Z . Analogamente, 2 −1 0 può essere pensata anche come una matrice su C, −4 3 5 infatti i suoi elementi appartengono a C; in questo caso la matrice è un elemento di C2,3 . Gli elementi nelle varie entrate sono gli stessi, ma pensati come elementi di insiemi differenti.   1 3  3 0 2  La tabella   0 0 invece può essere pensata come una matrice √ 3 0 su C, ma non su Z, perché non tutti i suoi elementi appartengono a Z.   ♥ ♣ 3. Dato X = {♥, ♦, ♣, ♠}, la tabella ♦ ♣ è una matrice su X ♠ ♦ di dimensione 3 × 2, e quindi è un elemento di X 3,2 .

c 2014 Gennaro Amendola

Versione 1.0

ad esempio,

Lezione 16. Matrici

16–3 

 2 3 4 4. La matrice (i + j)i=1,2,3 è la matrice 3 4 5. ◮ j=1,2,3 4 5 6   4 −2 5. Se la matrice (aij )i=1,2 è la matrice , la matrice (2aij )i=1,2 3 1 j=1,2 j=1,2   8 −4 ◮ è . 6 2

Osservazione 16.3. Tipicamente, l’insieme X sarà un campo K, ma nulla ci vieta di considerare matrici su N, Z, uno spazio di polinomi, o anche su un insieme qualsiasi. Visto che utilizzeremo quasi esclusivamente matrici su un campo K, ◮ per semplicità, d’ora in poi ci limiteremo al caso in cui X è un campo K. Definizione 16.4. La matrice n × m su K con tutti gli elementi nulli è detta nulla ed è indicata con 0n,m , oppure semplicemente con 0:   0 0 ··· 0 0 0 · · · 0   0n,m :=  . . . . .  .. .. . . .. 

◮ Per esempio, nell’entrata (3, 2), sulla terza riga e seconda colonna, abbiamo i = 3 e j = 2, quindi abbiamo aij = 3 + 2 = 5.

◮ Per esempio, nell’entrata (1, 2), sulla prima riga e seconda colonna, abbiamo i = 1 e j = 2, quindi abbiamo aij = −2, e quindi aij = 2 · (−2) = −4.

◮ Perché avremo bisogno di fare addizioni e moltiplicazioni tra gli elementi delle matrici.

Matrice nulla 0n,m

0 0 ··· 0

Osservazione 16.5. Useremo la notazione 0n,m solo se sarà necessario sottolineare la dimensione della matrice. Altrimenti, la differenza tra una matrice nulla e l’elemento neutro per l’addizione di K sarà chiara dal contesto, e quindi possiamo usare lo stesso simbolo, 0, per entrambi.

Facciamo la stessa cosa per 0n in Kn (Osservazione 10.20).

Notazione 16.6. Tipicamente, indicheremo le matrici con una lettera maiuscola dell’alfabeto latino: A, B, C, . . . , Z. L’elemento al posto (i, j) della matrice A è anche indicato con Aji . Osservazione 16.7. In alcuni libri di testo, l’insieme Kn,m è indicato n,m (K), M anche con i simboli Mn,m n×m (K), o analoghi. K , M

Osservazione 16.8.  Una matrice 1 × 1 su K, ossia con una riga e una colonna, A = a11 , è praticamente un elemento di K, ma useremo lettere diverse per la matrice e per l’elemento (tipicamente, maiuscola per la matrice e minuscola per l’elemento). Definizione 16.9. Una matrice n × n, ossia tale che il numero di righe è uguale al numero di colonne, è detta quadrata:   a11 a12 · · · a1n  a21 a22 · · · a2n     .. .. ..  . . .  . . . . 

Matrice quadrata

an1 an2 · · · ann

In questo caso n è detto ordine della matrice.    Esempio 16.10. 1. Le matrici −3 , 0 e 1 in R1,1 sono quadrate di ordine 1.       2 1 0 0 1 0 2. Le matrici , e in R2,2 sono quadrate di 3 −1 0 0 0 1 ordine 2. c 2014 Gennaro Amendola

Versione 1.0

Ordine

Lezione 16. Matrici

16–4



2 1 3. Le matrici 3 −1 1 2 quadrate di ordine 3.

     0 0 0 0 1 0 0 1, 0 0 0 e 0 1 0 in R3,3 sono 2 0 0 0 0 0 1

Definizione 16.11. Una matrice n × 1 (ossia con una sola colonna) è detta matrice colonna, mentre una matrice 1 × m (ossia con una sola riga) è detta matrice riga, cioè, rispettivamente,   a11  a21     a11 a12 · · · a1m .  ..  e  . 

Matrice colonna Matrice riga

an1

Osservazione 16.12. Le matrici colonna (ossia quelle n × 1) sono i vettori colonna di Kn (Definizione 10.14), quindi abbiamo Kn,1 = Kn .     0  3 1,1 2,1  Esempio 16.13. 1. Le matrici 2 ∈ R , ∈ R e −1 ∈ −1 2 3,1 R sono matrici colonna.    2. Le matrici 2 ∈ R1,1 , 3 −1 ∈ R1,2 e 0 −1 2 ∈ R1,3 sono matrici riga.

Definizione 16.14. Una matrice è detta a scalini se in ogni riga il primo elemento non nullo è a destra del primo elemento non nullo della riga precedente, e tutte le righe nulle sono in fondo alla matrice. Il primo elemento non nullo di ogni riga non nulla è detto pivot. Osservazione 16.15.  0 · · · 0 a1j1 · · · 0 · · · 0 0 ···  0 · · · 0 0 ···     0 · · · 0 0 ···  0 · · · 0 0 ···    0 ··· 0 0 ···

Una matrice a scalini appare come ∗ ∗ ··· ∗ ∗ 0 a2j2 · · · ∗ ∗ 0 0 · · · 0 a3j3

··· ∗ ··· ··· ∗ ··· ··· ∗ ··· .. .

∗ ∗ ∗

0 0

0 0

··· 0 ··· 0

0 0

· · · 0 · · · akjk ··· 0 ··· 0 .. .

0

0

··· 0

0

··· 0 ···

0

Matrice a scalini

Pivot

 ··· ∗ · · · ∗  · · · ∗    , · · · ∗  · · · 0    ··· 0

dove tutti gli aiji con i = 1, 2, . . . , k sono non nulli (e sono i pivot), gli asterischi indicano elementi che possono assumere qualsiasi valore, le prime colonne nulle possono non esserci, e le ultime righe nulle possono non esserci. In una matrice a scalini solo le ultime righe possono essere tutte nulle.    0 −1 2 4  2 −1 0 4   Esempio 16.16. 1. Le matrici 0 0 0 4 , , 0 3 −2 4 0 0 0 0   1 0 sono a scalini. Abbiamo indicato con un colore scuro i 0 1 pivot e con un colore chiaro gli elementi che, anche se cambiati, lasciano la matrice a scalini. c 2014 Gennaro Amendola

Infatti, tipicamente usiamo le stesse lettere per indicare i vettori colonna e le matrici (Notazioni 10.21 e 16.6).

Versione 1.0

Lezione 16. Matrici

16–5



    0 −1 2 4  0 −1 0 4 0 0   2. Le matrici 0 3 0 4 , , non sono 2 3 −2 4 0 1 0 0 0 0 a scalini. Ad esempio, la prima non lo è perché l’elemento 3 al posto (2, 2) (che è il primo elemento non nullo della seconda riga) non è a destra dell’elemento −1 al posto (1, 2) (che è il primo elemento non nullo della prima riga). Lo stesso problema c’è anche nella seconda matrice. Per la terza matrice, invece, la prima riga è nulla ed è sopra una riga non nulla.

Trasposizione Una trasformazione molto semplice sulle matrici è la trasposizione. Definizione 16.17. Sia A = (aij )i=1,...,n una matrice su K: j=1,...,m   a11 a12 · · · a1m  a21 a22 · · · a2m     .. .. ..  . . .  . . . . 

Trasposta di una matrice

an1 an2 · · · anm

La trasposta di A è la matrice m×n ottenuta dalla matrice A scambiando le righe con le colonne:   a11 a21 · · · an1  a12 a22 · · · an2     .. .. ..  . .  . . . .  a1m a2m · · · anm

La trasposta di A è indicata con t A.

Esempio 16.18. Abbiamo L’ultimo caso è “particolare”, infatti stiamo considerando una matrice la cui trasposta     t t    1 4 1 4 1 t coincide con la matrice stessa.  1 2 3 2 5 = 1 2 3 ,  0  = 1 0 −2 , = 2 5 , 4 5 6 4 5 6 3 6 3 6 −2       t t 2 0 1 2 −1 −2 −3 4 0 −3 4 0 −1 3 4  = 0 3 4 5 , 1 −1 =  4 1 −1 . −2 5 −3 1 4 −3 0 −1 2 0 −1 2 Osservazione 16.19. 1. La trasposta t A di una matrice n × n quadrata A è ancora quadrata, ma può essere diversa da A. 2. La trasposta t A di una matrice n × 1 colonna A è una matrice riga 1 × n, e viceversa. Ciò spiega perché abbiamo usato la Notazione 10.17 quando abbiamo definito i vettori colonna.  t 3. Abbiamo t A = A.

Osservazione 16.20. Dati n, m ∈ N \ {0}, la trasposizione definisce una funzione bigettiva Kn,m ∋ A 7−→ t A ∈ Km,n ,

 t la cui funzione inversa è ancora la trasposizione: A −→ t A −→ t A = A. Se n = m, ossia le matrici sono quadrate, il dominio e il codominio coincidono. c 2014 Gennaro Amendola

Versione 1.0

Dall’esempio sopra deduciamo  t t t ! 1 4 1 2 3 2 5  = 4 5 6 3 6   1 2 3 . 4 5 6

che =

Lezione 16. Matrici

16–6

Matrici quadrate Definizione 16.21. Sia A = (aij )i=1,...,n una matrice quadrata su K. La

Diagonale principale

diagonale principale di A è formata dalle entrate (i, i) con i = 1, 2, . . . , n:   a11 a12 · · · a1n  a21 a22 · · · a2n     .. .. ..  . ..  . . . . 

Se la matrice A non è quadrata, la diagonale principale non è definita.

Definizione 16.23. Sia A = (aij )i=1,...,n una matrice quadrata su K.

Tutte queste definizioni sono date solo per le matrici quadrate.

j=1,...,n

an1 an2 · · · ann Esempio 16.22. Gli elementi della diagonale principale della matrice   1 0 2 2 3 −4 sono, nell’ordine, 1 al posto (1, 1), 3 al posto (2, 2), e −2 2 0 −2 al posto (3, 3). j=1,...,n

t

• La matrice A è detta simmetrica se A = A, ossia se aij = aji per ogni i = 1, 2, . . . , n e j = 1, 2, . . . , m. • La matrice A è detta antisimmetrica se t A = −A ◮, ossia se aij = −aji per ogni i = 1, 2, . . . , n e j = 1, 2, . . . , n.

• La matrice A è detta triangolare superiore se aij = 0 per ogni i > j.

• La matrice A è detta triangolare inferiore se aij = 0 per ogni i < j.

Matrice simmetrica Matrice antisimmetrica ◮ Come per i vettori colonna (Osservazione 10.27-7), l’opposto −A della matrice A è la matrice che ha, come elementi, gli elementi di A cambiati di segno (lo vedremo meglio nell’Osservazione 17.5).

• La matrice A è detta diagonale se aij = 0 per ogni i 6= j. Essa è indicata con Diag (a11 , a22 , . . . , ann ).

Matrice triangolare superiore

• La matrice A è detta identità, o identica, o unità se aij = 1 se i = j, e aij = 0 se i 6= j. Essa è indicata con In , oppure semplicemente con I.

Matrice diagonale

Osservazione 16.24. Vediamo come appaiono graficamente i casi particolari definiti sopra.   a11 a12 · · · a1n  a12 a22 · · · a2n    • Le matrici simmetriche sono della forma  . .. .. . ..  .. . . . 

Matrice triangolare inferiore Diag (·, ·, . . . , ·)

Matrice identità/identica/unità In /I

a1n a2n · · · ann Graficamente esse risultano simmetriche rispetto alla diagonale principale.   0 a12 · · · a1n  −a12 0 · · · a2n    • Le matrici antisimmetriche sono della forma  . .. .. . ..  .. . . . 

−a1n −a2n · · · 0 Visto che ribaltandole rispetto alla diagonale principale e cambiando il segno un elemento aii sulla diagonale principale rimane fisso, esso deve essere uguale al suo opposto −aii , ossia deve essere nullo.   a11 a12 · · · a1n  0 a22 · · · a2n    • Le matrici triangolari superiori sono della forma  . .. .. . ..  .. . . .  0 Gli elementi sono nulli sotto la diagonale principale

c 2014 Gennaro Amendola

0

· · · ann

Versione 1.0

Lezione 16. Matrici

16–7

• Le matrici triangolari inferiori sono della forma   a11 0 · · · 0  a21 a22 · · · 0     .. .. .. . Gli elementi sono nulli sopra la diagonale . .  . . . .  an1 an2 · · · ann principale.   a11 0 · · · 0  0 a22 · · · 0    • Le matrici diagonali sono della forma  . .. .. . Gli . . .  . . . . 

Una matrice è triangolare inferiore se e solo se la sua trasposta è triangolare superiore, e viceversa.

• Le (o identiche, o unità) sono della forma  matrici identità  1 0 ··· 0 0 1 · · · 0    .. .. . . .. . Gli elementi sono nulli fuori dalla diagonale prin. . . . 0 0 ··· 1 cipale e tutti gli elementi sulla diagonale principale sono 1. Esse sono anche indicate con Diag (1, 1, . . . , 1).   −3 4 0 Esempio 16.25. • La matrice A =  4 1 −1 è simmetrica, 0 −1 2   −3 4 0 infatti t A =  4 1 −1 = A. 0 −1 2   2 0 1 Invece, la matrice B = −1 3 4  non è simmetrica, infatti −2 5 −3   2 −1 −2 t B = 0 3 5  6= B. 1 4 −3   0 4 −2 • La matrice A = −4 0 −1 è antisimmetrica, infatti t A = 2 1 0   0 −4 2 4 0 1 = −A. −2 −1 0     2 1 0 1 Invece, le matrici B1 = e B2 = non sono anti−1 0 2 0     2 −1 0 2 t t simmetriche, infatti B1 = 6= −B1 e B2 = 6= 1 0 1 0 −B2 .   3 4 −2 • La matrice A = 0 0 −1 è triangolare superiore, infatti gli 0 0 −1 elementi nei posti evidenziati ◮ sono tutti nulli.

◮ Gli elementi sulla diagonale principale sono liberi di essere nulli o non nulli.

0 0 · · · ann elementi sono nulli fuori dalla diagonale principale. ◮

c 2014 Gennaro Amendola

Versione 1.0

Nota che la notazione Diag (a11 , a22 , . . . , ann ) è sufficiente per identificare la matrice, infatti tutti gli elementi fuori dalla diagonale principale sono nulli.

◮ Che sono sotto la diagonale principale.

Lezione 16. Matrici

16–8

  3 4 −2 Invece, la matrice B = 0 0 −1 non è triangolare superiore, 1 2 −1 infatti gli elementi nei posti evidenziati ◮ non sono tutti nulli.   3 0 • La matrice A = è triangolare inferiore, infatti gli elementi 4 0 nei posti evidenziati ◮ sono tutti nulli.   3 1 non è triangolare inferiore, infatti Invece, la matrice B = 4 0 l’elemento nel posto evidenziato ◮ non è nullo.   3 0 0 • La matrice D = 0 0 0  è diagonale, infatti gli elementi fuori 0 0 −1 dalla diagonale principale sono tutti nulli. Essa è anche indicata con Diag (3, 0, −1).   1 0 Invece, la matrice B = non è diagonale, infatti l’elemento 1 0 nel posto evidenziato ◮ non è nullo.     1 0 0  1 0 • Le matrici I1 = 1 , I2 = , I3 = 0 1 0 sono matrici 0 1 0 0 1 identità. Osservazione 16.26. Una matrice quadrata a scalini è triangolare superiore, infatti, in una matrice a scalini, per ogni riga c’è uno spostamento verso destra di almeno un posto per il primo elemento non nullo, quindi nella riga i-esima il primo elemento non nullo non può essere a sinistra di aii .   0 0 Il viceversa non è vero, infatti la matrice è triangolare supe0 1 riore ma non a scalini. ◮

◮ Che sono sotto la diagonale principale.

◮ C’è un solo elemento che è sopra la diagonale principale.

◮ Che è sopra la diagonale principale.

◮ Che è fuori dalla diagonale principale.

◮ Esempio 16.16-2.

Sottomatrici Definizione 16.27. Sia A = (aij )i=1,...,n una matrice su K. Fissiamo

Sottomatrice

j=1,...,m

alcune righe e alcune colonne di A (almeno una riga e almeno una colonna). La sottomatrice B corrispondente alle righe e alle colonne fissate è la matrice ottenuta da A rimuovendo le righe e le colonne diverse da quelle fissate. Se vengono scelte tutte le righe ma solo la j-esima colonna, si ottiene la sottomatrice data dalla j-esima colonna stessa di A, che viene indicata con Aj . Se vengono scelte tutte le colonne ma solo la i-esima riga, si ottiene la sottomatrice data dalla i-esima riga stessa di A, che viene indicata con Ai . Se vengono scelte la i-esima riga e la j-esima colonna, si ottiene la sottomatrice 1 × 1 aij ◮, che viene anche indicata con Aji . c 2014 Gennaro Amendola

Versione 1.0

Colonna di una matrice

Riga di una matrice

◮ Non si confonda la  matrice con una riga e una colonna aij con la matrice generica (aij )i=1,...,n . j=1,...,m

Lezione 16. Matrici

16–9

Osservazione 16.28. Nel caso della sottomatrice Aji della definizione precedente, abbiamo usato lo stesso simbolo dell’elemento al posto (i, j), introdotto nella Notazione 16.6. Ciò comunque non crea confusione. ◮

◮ Osservazione 16.8.

Osservazione 16.29. Sia A = (aij )i=1,...,n una matrice su K. Allora A j=1,...,m

stessa è una sua sottomatrice, che corrisponde a tutte le righe e a tutte le colonne.   0 1 2 3 Esempio 16.30. Alcune sottomarici della matrice 4 5 6 7  so8 9 10 11 no elencate nella tabella seguente, dove abbiamo anche indicato quelle quadrate.

Righe

Colonne

1

1

3

2

1, 2

4

2

1, 2, 3, 4

1, 2

1, 3

1, 2

2, 4

1, 2

1, 2, 3

1, 2, 3

1, 3, 4

1, 2, 3

1, 2, 3, 4

Posizione  0 4 8  0 4 8  0 4 8  0 4 8  0 4 8  0 4 8  0 4 8  0 4 8  0 4 8

1 5 9 1 5 9 1 5 9 1 5 9 1 5 9 1 5 9 1 5 9 1 5 9 1 5 9

2 6 10 2 6 10 2 6 10 2 6 10 2 6 10 2 6 10 2 6 10 2 6 10 2 6 10

 3 7 11  3 7 11  3 7 11  3 7 11  3 7 11  3 7 11  3 7 11  3 7 11  3 7 11

Sottomatrice  0



 9



  3 7  4 5 6 7 

 

Quadrate?

No

No





 1 3 9 11



0 1 4 5

 0 1 2 4 5 6   0 2 3 4 6 7  8 10 11   0 1 2 3 4 5 6 7  8 9 10 11

No



No

A volte costruiremo matrici utilizzando alcune delle loro sottomatrici. Notazione 16.31. Siano A ∈ Kn,m e B ∈ Kn,h matrici. Then, we denote by  A B ∈ Kn,m+h c 2014 Gennaro Amendola

Versione 1.0

Le due matrici devono avere lo stesso numero di righe, altrimenti affiancandole non otteniamo una matrice.

Lezione 16. Matrici

16–10

la matrice ottenuta affiancando le due matrici A e B, ossia la matrice di dimensione n × (m + h) che, per j = 1, 2, . . . , m + h, ha come j-esima colonna • la j-esima colonna di A se j 6 m,

• la (j − m)-esima colonna di B se j > m.     −1 1 1 2 3 2,2 Esempio 16.32. Se A = ∈R eB= ∈ R2,3 3 0 0 0 −4 Entrambe le matrici hanno dimensione 2 × abbiamo 5.      −1 1 1 2 3 1 2 3 −1 1 A B = and B A = . 3 0 0 0 −4 0 0 −4 3 0

16.2

Operazioni elementari e metodo di eliminazione di Gauss

Le trasformazioni che descriveremo ora non sono operazioni, come quelle definite nella Definizione 9.1, ma sono chiamate comunemente operazioni. Definizione 16.33. Una operazione elementare sulle righe su una matrice A ∈ Kn,m è una delle seguenti modifiche di A: I) scambio di due righe di A; II) moltiplicazione di una riga di A per un elemento λ ∈ K \ {0};

III) sostituzione di una riga di A con la somma della riga stessa e di un multiplo di un’altra riga. Notazione 16.34. Se applichiamo un’operazione elementare sulle righe a una matrice A ottenendo una matrice B, usiamo la seguente notazione: I) se scambiamo la i-esima e la j-esima riga di A (operazione di tipo I), scriviamo RI

A −−→ B; i↔j

II) se moltiplichiamo la i-esima riga di A per l’elemento λ ∈ K \ {0} (operazione di tipo II), scriviamo RII

A −−→ B; λ·i

III) se sostituiamo la i-esima riga di A con la somma della riga stessa e della j-esima riga moltiplicata per λ ∈ K (operazione di tipo III), scriviamo RIII

A −−−→ B. i+λ·j

1. L’operazione elementare sulle righe  di tipo  I che −1 2 scambia la seconda e la terza riga della matrice  1 0 opera 3 4 come segue:     −1 2 −1 2  1 0 −−RI −→  3 4 . 2↔3 1 0 3 4

Esempio 16.35.

c 2014 Gennaro Amendola

Versione 1.0

Operazione elementare sulle righe

Lezione 16. Matrici

16–11

2. L’operazione elementare sulle righe di tipo II che moltiplica la  2 3 −5 seconda riga della matrice per −3 opera come segue: 2 −1 0     2 3 −5 2 3 −5 RII −−−−→ . 2 −1 0 −6 3 0 (−3)·2

3. L’operazione elementare  sulle righe ditipo III che sostituisce la 1 −1 0 terza riga della matrice 3 4 −5 con la somma della riga 2 5 4 stessa e della prima riga moltiplicata per 2 opera come segue:     1 −1 0 1 −1 0 3 4 −5 −RIII −−→ 3 4 −5 . 3+2·1 2 5 4 4 3 4

Osservazione 16.36. L’inversa di un’operazione elementare sulle righe è anch’essa un’operazione elementare sulle righe. Infatti, supponiamo di avere due matrici A, B ∈ Kn,m . Abbiamo tre casi da analizzare: I) Se B è ottenuta da A scambiando la i-esima riga con la j-esima riga, allora anche A è ottenuta da B scambiando la i-esima riga con la j-esima riga; II) se B è ottenuta da A moltiplicando la i-esima riga per λ 6= 0, allora A è ottenuta da B moltiplicando la i-esima riga per λ−1 , che esiste perché λ 6= 0;

III) se B è ottenuta da A aggiungendo alla i-esima riga λ volte la jesima riga, allora A è ottenuta da B aggiungendo alla i-esima riga −λ volte la j-esima riga.

Esempio 16.37. Le operazioni elementari sulle righe inverse di quelle dell’Esempio 16.35 sono, rispettivamente, le seguenti. 1. L’operazione elementare sulle righe di tipo I che scambia la seconda e la terza riga della matrice:     −1 2 −1 2  3 4 −−RI −→  1 0 . 2↔3 1 0 3 4

2. L’operazione elementare sulle righe di tipo II che moltiplica la seconda riga della matrice per − 31 :     2 3 −5 2 3 −5 RII −−−−→ . −6 3 0 (− 31 )·2 2 −1 0

3. L’operazione elementare sulle righe di tipo III che sostituisce la terza riga della matrice con la somma della riga stessa e della prima riga moltiplicata per −2:     1 −1 0 1 −1 0 RIII 3 4 −5 −−− −−−→ 3 4 −5 . 3+(−2)·1 4 3 4 2 5 4

Analogamente, possiamo definire le operazioni elementari sulle colonne. c 2014 Gennaro Amendola

Versione 1.0

Lezione 16. Matrici

16–12

Definizione 16.38. Una operazione elementare sulle colonne su una matrice A ∈ Kn,m è una delle seguenti modifiche di A: I) scambio di due colonne di A;

Operazione elementare sulle colonne

II) moltiplicazione di una colonna di A per un elemento λ ∈ K \ {0};

III) sostituzione di una colonna di A con la somma della colonna stessa e di un multiplo di un’altra colonna. Notazione 16.39. Se applichiamo un’operazione elementare sulle colonne a una matrice A ottenendo una matrice B, usiamo la seguente notazione: I) se scambiamo la i-esima e la j-esima colonna di A (operazione di tipo I), scriviamo CI

A −−→ B; i↔j

II) se moltiplichiamo la i-esima colonna di A per l’elemento λ ∈ K\{0} (operazione di tipo II), scriviamo CII

A −−→ B; λ·i

III) se sostituiamo la i-esima colonna di A con la somma della colonna stessa e della j-esima colonna moltiplicata per λ ∈ K (operazione di tipo III), scriviamo CIII

A −−−→ B. i+λ·j

1. L’operazione elementare sulle colonne di tipo I   1 1 0 −1 che scambia la prima e la terza colonna della matrice  4 5 3 2 −1 −4 0 3 opera come segue:     1 1 0 −1 0 1 1 −1 CI 4 5 3 2  −−−→ 3 5 4 2 . 1↔3 −1 −4 0 3 0 −4 −1 3

Esempio 16.40.

2. L’operazione elementare sulle  colonne di  tipo II che moltiplica la 2 4 0 prima colonna della matrice 4 −1 3 per 21 opera come segue: 0 0 2     2 4 0 1 4 0 CII  4 −1 3 − −→ 2 −1 3 . 1 ·1 2 0 0 2 0 0 2

3. L’operazione elementare sullecolonne  di tipo III che sostituisce la 1 3 prima colonna della matrice con la somma della colonna 5 4 stessa e della seconda colonna moltiplicata per −1 opera come segue:     1 3 −2 3 CIII −−−−−−→ . 5 4 1+(−1)·2 1 4 c 2014 Gennaro Amendola

Versione 1.0

Lezione 16. Matrici

16–13

Osservazione 16.41. Analogamente a quanto visto nell’Osservazione 16.36 abbiamo che l’inversa di un’operazione elementare sulle colonne è anch’essa un’operazione elementare sulle colonne. Esempio 16.42. Le operazioni elementari sulle colonne inverse di quelle dell’Esempio 16.40 sono, rispettivamente, le seguenti. 1. L’operazione elementare sulle colonne di tipo I che scambia la prima e la terza colonna della matrice:     0 1 1 −1 1 1 0 −1 CI 3 5 4 2  −−−→  4 5 3 2 . 1↔3 0 −4 −1 3 −1 −4 0 3 2. L’operazione elementare sulle colonne di tipo II che moltiplica la prima colonna della matrice per 2:     1 4 0 2 4 0 CII  2 −1 3 − −→ 4 −1 3 . 2·1 0 0 2 0 0 2

3. L’operazione elementare sulle colonne di tipo III che sostituisce la prima colonna della matrice con la somma della colonna stessa e della seconda colonna moltiplicata per 1:     −2 3 1 3 CIII −−−→ . 1 4 1+1·2 5 4 Metodo di eliminazione di Gauss Con le operazioni elementari sulle righe possiamo ridurre una matrice a scalini. Questo metodo e sue varianti saranno fondamentali in ciò che seguirà. ◮ Algoritmo 16.43 (Metodo di eliminazione di Gauss). Sia A ∈ Kn,m una matrice. Si ripetono i seguenti passi al più n − 1 volte, una per ogni riga. Al primo passo si lavora sulla matrice A, e poi, ad ogni passo successivo, si fissa la prima riga e si lavora sulla sottomatrice che si ottiene cancellandola. Sia B(1) := A. ◮ All’i-esimo passo si opera sulla ◮ nel modo seguente: sottomatrice B(i) ◮ 1. Se B(i) è la matrice nulla 0n−i+1,m , l’algoritmo termina. Se B(i) non è la matrice nulla, si cerca la prima colonna, B(i)k , che non è tutta nulla.

◮ Per esempio, nel risolvere un tipo particolare di sistemi lineari.

Metodo di eliminazione di Gauss

◮ L’indice 1 nella notazione B(1) denota il primo passo. ◮ ◮ L’indice i nella notazione B(i) denota l’iesimo passo.

The first columns may be null.

2. Se l’elemento di posto (1, k) di B(i) è uguale a 0, si cerca una riga B(i)l con l’elemento di posto (l, k) non nullo e si applica un’operazione elementare sulle righe di tipo I, scambiando la prima riga con la riga l-esima. In questo modo l’elemento B(i)k1 diventa non nullo.

Vogliamo che la prima entrata della kesima colonna (nella sottomatrice B(i)) sia non nulla.

3. Per ogni riga B(i)j con j > 1 tale che B(i)kj = 6 0, si applica un’operazione elementare sulle righe di tipo III, aggiungendo alla ri-

Vogliamo che le entrate sotto la prima siano nulle.

B(i)k

ga B(i)j la riga B(i)1 moltiplicata per − B(i)kj . In questo modo l’elemento B(i)kj diventa nullo.

1

4. Se i < n − 1, si fissa la prima riga di B(i), si considera la sottomatrice B(i + 1) di B(i) ottenuta rimuovendo la prima riga, e si procede con l’(i + 1)-esimo passo con la sottomatrice B(i + 1). c 2014 Gennaro Amendola

Versione 1.0

La i-esima riga e la k-esima colonna di A soddisfano le richieste delle matrici a scalini.

Lezione 16. Matrici

16–14

Se i = n − 1, l’algoritmo termina. Il risultato dell’algoritmo è la matrice B ∈ Kn,m ottenuta da A applicando le operazioni elementari sulle righe indicate, ossia la i-esima riga coincide con la riga fissata all’i-esimo passo. Se il numero di passi fatti non è n − 1, le righe mancanti sono tutte nulle, come nella sottomatrice B(i) dell’ultimo passo compiuto.

Le matrici B(i) sono state introdotte solo per descrivere l’algoritmo. Quando applichiamo l’algoritmo, possiamo applicare le operazioni elementari sulle righe direttamente sulla matrice A.

Esempio 16.44.  Applichiamo  il metodo di eliminazione di Gauss alla 0 3 −3 1 matrice A =  1 1 1 2 ∈ R3,4 . −1 5 −7 2 Cominciamo definendo la matrice B(1) = A. Passo 1. 1. La prima colonna che non è tutta nulla è la prima. 2. L’entrata (1, 1) di B(1) è 0, la riga B(1)l con l’entrata (l, 1) non nulla è la seconda riga, quindi applichiamo un’operazione elementare sulle righe di tipo I, scambiando la prima riga con la seconda riga:     0 3 −3 1 1 1 1 2  1 1 1 2 −−RI −→  0 3 −3 1 . 1↔2 −1 5 −7 2 −1 5 −7 2 In questo modo l’elemento B(1)11 diventa non nullo. 3. L’elemento B(1)12 è già nullo. Per ottenere che l’elemento B(1)13 diventi nullo, applichiamo un’operazione elementare sulle righe di tipo III, aggiungendo alla riga B(1)3 la riga B(1)1 moltiplicata per − −1 1 = 1:     1 1 1 2 1 1 1 2  0 3 −3 1 −RIII  −−→ 0 3 −3 1 . 3+1·1 −1 5 −7 2 0 6 −6 4

4. Visto che 1 < 2, ◮ fissiamo la prima riga di B(1), consideriamo la sottomatrice B(2) di B(1) ottenuta rimuovendo la prima riga:   0 3 −3 1 . 0 6 −6 4

◮ Qui abbiamo i = 1 e n − 1 = 2.

Passo 2. 1. La prima colonna che non è tutta nulla è la seconda. 2. L’entrata (1, 2) di B(2) non è 0, quindi continuiamo. 3. Per ottenere che l’elemento B(2)22 diventi nullo, applichiamo un’operazione elementare sulle righe di tipo III, aggiungendo alla riga B(2)2 la riga B(2)1 moltiplicata per − 36 = −2:     0 3 −3 1 0 3 −3 1 RIII −−−−−−→ . 0 6 −6 4 2+(−2)·1 0 0 0 2 4. Visto che 2 = 2, ◮ l’algoritmo termina. Il risultato è la matrice   1 1 1 2 B = 0 3 −3 1 , 0 0 0 2 c 2014 Gennaro Amendola

◮ Qui abbiamo i = 2 e n − 1 = 2.

Versione 1.0

Lezione 16. Matrici

16–15

infatti applicando le operazioni elementari sulle righe indicate ad A otteniamo         0 3 −3 1 1 1 1 2 1 1 1 2 1 1 1 2 RIII RIII  1 1 1 2 −−RI −→  0 3 −3 1 −−−→ 0 3 −3 1 −−−−−−→ 0 3 −3 1 . 1↔2 3+1·1 3+(−2)·2 −1 5 −7 2 −1 5 −7 2 0 6 −6 4 0 0 0 2

Esempio 16.45. il metodo di eliminazione di Gauss alla   Applichiamo 0 3 1 0 0 0  ∈ R4,3 . matrice A =  0 6 4 0 −9 −3 Definiamo la matrice B(1) = A. Passo 1. 1. La prima colonna che non è tutta nulla è la seconda. 2. L’entrata (1, 2) di B(1) non è 0, quindi continuiamo. 3. L’elemento B(1)22 è già nullo. Per ottenere che l’elemento B(1)23 diventi nullo, applichiamo un’operazione elementare sulle righe di tipo III, aggiungendo alla riga B(1)3 la riga B(1)1 moltiplicata per − 36 = −2:     0 3 1 0 3 1 0 0 0 0 0 0 RIII   −−−  . − − − → 0 6 4  3+(−2)·1 0 0 2 0 −9 −3 0 −9 −3 Per ottenere che l’elemento B(1)24 diventi nullo, applichiamo un’operazione elementare sulle righe di tipo III, aggiungendo alla riga B(1)4 la riga B(1)1 moltiplicata per − −9 3 = 3:     0 3 1 0 3 1 0 0  RIII 0 0 0 0   −−−→  . 0 0 2  4+3·1 0 0 2 0 −9 −3 0 0 0

4. Visto che 1 < 3, ◮ fissiamo la prima riga di B(1), consideriamo la sottomatrice B(2) di B(1) ottenuta rimuovendo la prima riga:   0 0 0 0 0 2 . 0 0 0

Passo 2. 1. La prima colonna che non è tutta nulla è la terza. 2. L’entrata (1, 3) di B(2) è 0, la riga B(2)l con l’entrata (l, 3) non nulla è la seconda riga, quindi applichiamo un’operazione elementare sulle righe di tipo I, scambiando la prima riga con la seconda riga:     0 0 0 0 0 2 0 0 2 −−RI −→ 0 0 0 . 1↔2 0 0 0 0 0 0 In questo modo l’elemento B(2)31 diventa non nullo. 3. Gli elementi B(2)32 e B(2)33 sono nulli, quindi continuiamo.

c 2014 Gennaro Amendola

Versione 1.0

◮ Qui abbiamo i = 1 e n − 1 = 3.

Lezione 16. Matrici

16–16

4. Visto che 2 < 3, ◮ fissiamo la prima riga di B(2), consideriamo la sottomatrice B(3) di B(2) ottenuta rimuovendo la prima riga:   0 0 0 . 0 0 0

Passo 3. 1. Visto che B(3) è la matrice nulla 02,3 , l’algoritmo termina. Il risultato  è la matrice  0 3 1 0 0 2  B= 0 0 0 , 0 0 0 infatti applicando le operazioni elementari sulle righe indicate ad A otteniamo        0 3 1 0 3 1 0 3 1 0 3 0 0  RIII 0 0  RIII 0 0 0 RI 0 0 0 0   −−−−−−→   −−−→   −−−→  0 6 4  3+(−2)·1 0 0 2  4+3·1 0 0 2 2↔3 0 0 0 −9 −3 0 −9 −3 0 0 0 0 0 Osservazione 16.46. Nel metodo di eliminazione di Gauss si usano solo operazioni elementari sulle righe di tipo I e III.

◮ Qui abbiamo i = 2 e n − 1 = 3.

 1 2 . 0 0

Proposizione 16.47. Il risultato dell’algoritmo 16.43 è una matrice a scalini. Non daremo la dimostrazione di questa proposizione, anche se non è difficile. Osservazione 16.48. Al punto 2 dell’i-esimo passo del metodo di eliminazione di Gauss l’elemento B(i)k1 che diventa (oppure è già) non nullo, diventa il pivot della i-esima riga di B. ◮ Con una piccola variazione del metodo di eliminazione di Gauss possiamo avere che tutti i pivot siano 1. Algoritmo 16.49 (Metodo di eliminazione di Gauss con normalizzazione). Sia A ∈ Kn,m una matrice. Si applica il metodo di eliminazione di Gauss e si ottiene la matrice a scalini B ∈ Kn,m . Per ogni riga non nulla si applica un’operazione elementare sulle righe di tipo II con fattore 1p , dove p è il pivot della riga considerata. In questo modo il pivot della riga considerata diventa 1. Il risultato dell’algoritmo è la matrice C ∈ Kn,m ottenuta da B applicando le operazioni elementari di tipo II indicate.   0 3 −3 1 Esempio 16.50. Consideriamo la matrice A =  1 1 1 2 del−1 5 −7 2 l’Esempio 16.44. Dopo  il metodo di eliminazione di Gauss, otteniamo la  1 1 1 2 matrice a scalini B = 0 3 −3 1. Il primo pivot è già 1. Appli0 0 0 2 chiamo l’operazione elementare sulle righe di tipo II con fattore 13 alla seconda riga:     1 1 1 2 1 1 1 2 RII  0 3 −3 1 − −→ 0 1 −1 31  . 1 ·2 3 0 0 0 2 0 0 0 2 c 2014 Gennaro Amendola

Versione 1.0

◮ Abbiamo indicato con un colore scuro negli esempi di sopra. Con un colore chiaro invece abbiamo indicato gli elementi sotto i pivot, che devono essere zero.

Metodo di eliminazione di Gauss con normalizzazione

Lezione 16. Matrici

16–17

Applichiamo l’operazione elementare sulle righe di tipo II con fattore 12 alla terza riga:     1 1 1 2 1 1 1 2 RII  0 1 −1 1  − −→ 0 1 −1 31  . 3 1 ·3 2 0 0 0 2 0 0 0 1   0 3 1 0 0 0  dell’EEsempio 16.51. Consideriamo la matrice A =  0 6 4 0 −9 −3 sempio 16.45. Dopo ilmetodo  di eliminazione di Gauss, otteniamo la 0 3 1 0 0 2  matrice a scalini B =  0 0 0. Applichiamo l’operazione elementare 0 0 0 sulle righe di tipo II con fattore 13 alla prima riga:     0 3 1 0 1 13 0 0 2 RII 0 0 2      0 0 0 −1−→ 0 0 0  . ·1 3 0 0 0 0 0 0

Applichiamo l’operazione elementare sulle righe di tipo II con fattore alla seconda riga:     0 1 13 0 1 13 0 0 2  RII 0 0 1      0 0 0  −1−→ 0 0 0  . ·2 2 0 0 0 0 0 0

1 2

Osservazione 16.52. Nel metodo di eliminazione di Gauss con normalizzazione usiamo, oltre alle operazioni elementari sulle righe di tipo I e III, anche operazioni elementari sulle righe di tipo II. Osservazione 16.53. Non è necessario fare tutte le operazioni elementari sulle righe di tipo II alla fine. Esse possono anche essere fatte ad ogni punto 2 dell’i-esimo passo del metodo di eliminazione di Gauss. In questo modo, l’elemento B(i)k1 che diventa il pivot dell’i-esima riga di B può diventare subito 1 con un’operazione elementare sulle righe di tipo II, dividendo la riga per B(i)k1 . Esempio 16.54. Consideriamo il metodo di  eliminazione di Gauss con  0 3 −3 1 normalizzazione applicato alla matrice A =  1 1 1 2 dell’E−1 5 −7 2 sempio 16.50. Se applichiamo le operazione elementari sulle righe di tipo II ad ogni passo, otteniamo le operazioni       0 3 −3 1 1 1 1 2 1 1 1 2 RI RIII RII  1 1 1 2 −−−→  0 3 −3 1 −−−→ 0 3 −3 1 − −→ 1 1↔2 3+1·1 ·2 3 0 6 −6 4 −1 5 −7 2 −1 5 −7 2       1 1 1 2 1 1 1 2 1 1 1 2 RIII RII RII −−→ 0 1 −1 31  −−−−−−→ 0 1 −1 13  −−→ 0 1 −1 13  . 1 1 3+(−6)·2 ·2 ·3 3 2 0 6 −6 4 0 0 0 2 0 0 0 1 c 2014 Gennaro Amendola

Versione 1.0

Lezione 16. Matrici

16–18

Esempio 16.55. Consideriamo il metodo di  eliminazione  di Gauss con 0 3 1 0 0 0  dell’Esemnormalizzazione applicato alla matrice A =  0 6 4 0 −9 −3 pio 16.51. Se applichiamo le operazione elementari sulle righe di tipo II ad ogni passo, otteniamo le operazioni     1  1  0 3 1 0 1 0 1 3 3 0 0 0 0 0 0 0 0 0 RII  RIII   −    −RIII −→  −−−−−−→  −−→ 0 6   1 4 0 6 4 0 0 2  4+9·1 3+(−6)·1 ·1 3 0 −9 −3 0 −9 −3 0 −9 −3      1 0 1 3 0 1 13 0 1 13 0 0 2  RII 0 0 1  RIII 0 0 0   −−RI   −−→  . −−−→  − → 4+9·1 0 0 2  2↔3 0 0 0  1 ·2 0 0 0  2 0 0 0 0 0 0 0 0 0 Proseguendo, possiamo rendere nulle anche le entrate sopra i pivot. Algoritmo 16.56 (Metodo di eliminazione di Gauss-Jordan). Sia A ∈ Kn,m una matrice. Si applica il metodo di eliminazione di Gauss con normalizzazione e si ottiene la matrice a scalini B ∈ Kn,m con tutti i pivot uguali ad 1 (e con tutte le righe nulle in basso). Si fa un passo per ogni riga non nulla. All’i-esimo passo, si considera l’i-esima riga (che non è nulla). Sia (i, k) il posto del pivot della i-esima riga. Per ogni j < i, se l’elemento x al posto (j, k) è diverso da 0, si applica un’operazione elementare sulle righe di tipo III, sommando alla j-esima riga la i-esima riga moltiplicata per −x. Il risultato dell’algoritmo è la matrice C ∈ Kn,m ottenuta da B applicando le operazioni elementari sulle righe di tipo III indicate.   0 3 −3 1 Esempio 16.57. Consideriamo la matrice A =  1 1 1 2 del−1 5 −7 2 l’Esempio 16.50. Dopo il metodo di eliminazione di Gauss con   norma1 1 1 2 lizzazione, otteniamo la matrice a scalini B = 0 1 −1 13 . 0 0 0 1 Riga 2. L’entrata (1, 2) è diversa da 0, quindi applichiamo l’operazione elementare sulle righe di tipo III, aggiungendo alla prima riga la seconda riga moltiplicata per −1:     1 1 1 2 1 0 2 53   RIII   0 1 −1 31  −−−−−−→ 0 1 −1 13  . 0 0

0

1

1+(−1)·2

0 0

0

1

Riga 3. L’entrata (1, 4) è diversa da 0, quindi applichiamo l’operazione elementare sulle righe di tipo III, aggiungendo alla prima riga la terza riga moltiplicata per − 53 :     1 0 2 53 1 0 2 0 RIII     −→ 0 1 −1 13  . 0 1 −1 13  −−−−− 5 1+(− 3 )·3 0 0 0 1 0 0 0 1 c 2014 Gennaro Amendola

Versione 1.0

Metodo di eliminazione di GaussJordan

Lezione 16. Matrici

16–19

L’entrata (2, 4) è diversa da 0, quindi applichiamo l’operazione elementare sulle righe di tipo III, aggiungendo alla seconda riga la terza riga moltiplicata per − 13 :     1 0 2 0 1 0 2 0 RIII     −→ 0 1 −1 0 . 0 1 −1 31  −−−−− 1 2+(− 3 )·3 0 0 0 1 0 0 0 1   1 0 2 0 Il risultato è la matrice C = 0 1 −1 0. 0 0 0 1   0 3 1 0 0 0  dell’EEsempio 16.58. Consideriamo la matrice A =  0 6 4 0 −9 −3 sempio 16.51. Dopo il metodo di eliminazione di Gauss   con normalizza0 1 13 0 0 1   zione, otteniamo la matrice a scalini B =  0 0 0 . 0 0 0 Riga 2. L’entrata (1, 3) è diversa da 0, quindi applichiamo l’operazione elementare sulle righe di tipo III, aggiungendo alla prima riga la seconda riga moltiplicata per − 13 :     0 1 13 0 1 0 0 0 1  0 0 1 RIII   −−  −−−→  0 0 0  − 0 0 0 . 1 1+(− 3 )·2 0 0 0 0 0 0   0 1 0 0 0 1  Il risultato è la matrice C =  0 0 0. 0 0 0

Osservazione 16.59. Se applichiamo il metodo di eliminazione di GaussJordan a una matrice quadrata A ∈ Kn,n e otteniamo n pivot (ossia non otteniamo righe nulle), allora il risultato del metodo di eliminazione di Gauss-Jordan è la matrice identità. 1. Applicando  il metododi eliminazione di Gauss5 4 Jordan alla matrice quadrata ∈ R2,2 , otteniamo −5 −6           5 4 1 45 1 0 5 4 1 45 RIII RII RII RIII −−−→ −−−−→ −−−−−−→ . −−→ −5 −6 2+1·1 0 −2 51 ·1 0 −2 (− 1 )·2 0 1 1+(− 4 )·2 0 1 2 5

Esempio 16.60.

Ci sono due pivot, e abbiamo ottenuto la matrice identità. 2. Applicando di eliminazione di Gauss-Jordan alla matrice  il metodo  4 8 quadrata ∈ R2,2 , we get 2 4       4 8 4 8 RII 1 2 RIII −−→ −−−−−−→ . 2 4 2+(− 1 )·1 0 0 14 ·1 0 0 2 c 2014 Gennaro Amendola

Versione 1.0

Lezione 16. Matrici

16–20

C’è un solo pivot, e non abbiamo ottenuto la matrice identità.

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 16/S1 MATRICI 1

Sessione di Studio 16.1

Matrici

Lezione 16. Matrici

16–21

Sessione di Studio 16.1 

 2 −1 0 3 2 1 . Applica le Esercizio 16.1. Considera la matrice  −5 4 3 3 0 −2 seguenti operazioni elementari. 1. Operazione elementare sulle righe di tipo I che scambia la terza e la quarta riga. 2. Operazione elementare sulle righe di tipo II che moltiplica la seconda riga per − 21 .

3. Operazione elementare sulle righe di tipo III che sostituisce la prima riga con la somma della riga stessa e della quarta riga moltiplicata per 3. 4. Operazione elementare sulle colonne di tipo I che scambia la prima e la terza colonna. 5. Operazione elementare sulle colonne di tipo II che moltiplica la terza colonna per 2. 6. Operazione elementare sulle colonne di tipo III che sostituisce la seconda colonna con la somma della colonna stessa e della prima colonna moltiplicata per −1.     2 −1 0 2 −1 0 3 3 2 1 2 1  −−RI  . − → Soluzione. 1.  −5 4 3  3↔4  3 0 −2 3 0 −2 −5 4 3     2 −1 0 2 −1 0  3  2 1  RII − 23 −1 − 21  . 2.  −−−−→ −5 4 3  3  (− 1 )·2  −5 4 2 3 0 −2 3 0 −2     2 −1 0 11 −1 −6 3 3 2 1 2 1  −RIII . 3.  −−→  −5 4   3 −5 4 3 1+3·4 3 0 −2 3 0 −2     2 −1 0 0 −1 2 3 1 2 1 2 3  −−CI . 4.  −→  −5 4   3 3 4 −5 1↔3 3 0 −2 −2 0 3     2 −1 0 2 −1 0 3 2 1 3 2 2 CII  − . 5.  −→  −5 4   3 −5 4 6 2·3 3 0 −2 3 0 −4     2 −1 0 2 −3 0 3  3 −1 1  2 1 CIII  −−− . 6.  −−− → −5 4  3 9 3 2+(−1)·1 −5 3 0 −2 3 −3 −2 c 2014 Gennaro Amendola

Versione 1.0

Lezione 16. Matrici

16–22

Esercizio di eliminazione di Gauss-Jordan alla  16.2. Applica il metodo  1 1 4 −2 2 3 7 −2  matrice  −3 −3 −12 6 . 0 1 −1 0

Soluzione.       1 1 4 −2 1 1 4 −2 1 1 4 −2 2 0 0 1 −1 2  RIII 3 7 −2 1 −1 2 RIII   −−−   −RIII   −−−−−−→ − − − → − − → −3 −3 −12 6  2+(−2)·1 −3 −3 −12 6  3+3·1 0 0 0 0  4+(−1)·2 0 1 −1 0 0 1 −1 0 0 1 −1 0     1 1 4 −2 1 1 4 −2 0 1 −1 2  RI 0 1 −1 2  RII RIII  −−−→   −−−−→ −−−−−−→  0 0  3↔4 0 0 0 −2 (− 12 )·3 4+(−1)·2 0 0 0 0 0 −2 0 0 0 0     1 1 4 −2 1 0 5 −4 0 1 −1 2  RIII   RII  −−−−−−→ 0 1 −1 2  −RIII −−−−→  −−→ 0 0 0 1  1+(−1)·2 0 0 0 1  1+4·3 (− 12 )·3 0 0 0 0 0 0 0 0     1 0 5 0 1 0 3 0    0 1 −1 2 RIII 0 1 −1 0 RIII . −−−→  −−−−−−→     0 0 0 1 2+(−2)·3 0 0 0 1 1+4·3 0 0 0 0 0 0 0 0

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 16/S2 MATRICI 1

Sessione di Studio 16.2

Matrici

Lezione 16. Matrici

16–23

Sessione di Studio 16.2 Esercizio 16.3. Considera la matrice A = (aij )i=1,...,n

j=1,...,m

1. Trova la dimensione di A.

√  2 0 1 −1 1 0 2 1 2    = −3 1 −1 3 . 3 2 0 4 0 1 5 0 

2. Trova un insieme di matrici a cui A appartiene, e uno a cui non appartiene. 3. Scrivi le entrate (2, 3), (1, 4), (4, 1), e (5, 2). 4. Scrivi la quinta riga di A. 5. Scrivi la terza colonna di A. Esercizio 16.4. Scrivi la matrice le cui √ entrate sono a32 = 4, a12 = 2, a31 = −1 , a11 = 43 , a23 = 0, a13 = − 5, a33 = π , a21 = 5, a22 = 0, a34 = 2 , a24 = −3 e a14 = −1.   3 −1 0 −2 Esercizio 16.5. Calcola la trasposta delle matrici A = 1 3 −1 1 , 0 2 4 2     −1 1 4 1 1 2 3 2 B = √21 3 0, e C = . −1 0 0 4 −5 3 2 0

Esercizio 16.6. Quali delle seguenti matrici sono nulle, riga, colonna, a scalini, quadrate, simmetriche, antisimmetriche, triangolari superiori, triangolari inferiori, diagonali, identità?         1 −2 0  1 0 0 1 0 0 1. 0 0 0 . 2. 0 2 0. 3. . 4. . 5. . 0 1 1 0 1 0 0 0 0         0 0 0 0 3 0 0 0 3 −1 4 0 −1 3 1 0 0 0   . 9. 0 0 0 0 . 6. −1 0 2. 7.  1 0 1. 8.  0 1 0 0 0 0 2 0  4 2 5 −3 −1 0 0 0 1 0 0 0 0 −1   −1 0 4 Esercizio 16.7. Trova tutte le sottomatrici della matrice . 3 2 0 Esercizio 16.8. ordine di una sottomatrice quadrata  Qual è il massimo 0 5 −1 3 0  1 −2 2 0 2  della matrice  −3 3 −4 1 1? Trova una sottomatrice quadrata 0 −1 1 0 5 per ogni ordine (per cui una sottomatrice esiste).   0 0 1 Esercizio 16.9. Considera la matrice 0 −2 −1. Applica le se3 4 −2 guenti operazioni elementari. 1. Operazione elementare sulle righe di tipo I che scambia la seconda e la terza riga.

c 2014 Gennaro Amendola

Versione 1.0

Lezione 16. Matrici

16–24

2. Operazione elementare sulle righe di tipo II che moltiplica la terza riga per − 34 .

3. Operazione elementare sulle righe di tipo III che sostituisce la prima riga con la somma della riga stessa e della seconda riga moltiplicata per −2.

4. Operazione elementare sulle colonne di tipo I che scambia la prima e la seconda colonna.

5. Operazione elementare sulle colonne di tipo II che moltiplica la prima colonna per 5. 6. Operazione elementare sulle colonne di tipo III che sostituisce la seconda colonna con la somma della colonna stessa e della terza colonna moltiplicata per 1. Esercizio  0 0 trice  −2 1

16.10. Applica il metodo di eliminazione di Gauss alla ma 1 3 . 4 0

Esercizio 16.11. Applicail metodo −2 −6 malizzazione alla matrice −3 −8 1 5

di eliminazione di Gauss con nor −2 −3. 3

Esercizio 16.12. Applica il metodo  di eliminazione di Gauss-Jordan  −4 −8 4 20 −12 1 2 2 1 0  . alla matrice  −2 −4 1 8 −5  0 0 −3 1 3

c 2014 Gennaro Amendola

Versione 1.0

Lezione 16. Matrici

Risultato dell’Esercizio 16.3. 2. A ∈

R5,4 , 1 2,

A 6∈

Q5,4 ◮.

16–25

1. 5 × 4.

Questo esercizio non ha un’unica soluzione, quindi il lettore può trovare una soluzione diversa.

3. a23 = a14 = 0, a41 = 3, a52 = 1.  4. 0 1 5 0 . √  2  1   2   5.  −1.  0  5  4

◮ Né a R3,2 .

√  2 − 5 −1 Risultato dell’Esercizio 16.4.  5 0 0 −3. −1 4 π 2   √   3 1 0 3 −1 21   −1 3 2 , t B =  1 3 2 , Risultato dell’Esercizio 16.5. t A =   0 −1 4 4 0 0 −2 1 2   1 −1 1 0    t . C= 2 0   3 4  2 −5 Risultato dell’Esercizio 16.6. 1. Nulla, riga, a scalini. 2. A scalini, quadrata, triangolare superiore. 3. A scalini, quadrata, simmetrica, triangolare superiore, triangolare inferiore, diagonale, identità. 4. Colonna. 5. A scalini. 6. Quadrata, simmetrica. 7. Quadrata, antisimmetrica. 8. Quadrata, triangolare inferiore. 9. Quadrata, simmetrica, triangolare superiore, triangolare inferiore, diagonale.        Risultato dell’Esercizio 16.7. −1 , 0 , 4 , 3 , 2 , 0 , −1 0 ,              −1 0 4 −1 0 −1 4 , 0 4 , 3 2 , 3 0 , 2 0 , , , , , 3 2 0 3 2       −1 4 0 4 −1 0 4 , , . 3 0 2 0 3 2 0 Risultato dell’Esercizio 16.8. 4.     0 −1 3 0   0 5 −1 1  5 3  2 0 2 . 0 . . 1 −2 2 .  Questo esercizio non ha un’unica soluzione,  −2 0 −3 −4 1 1 quindi il lettore può trovare una soluzione 0 −1 1 diversa. 0 1 0 5     0 0 1 0 0 1 RI Risultato dell’Esercizio 16.9. 1. 0 −2 −1 −−−→ 3 4 −2. 2↔3 3 4 −2 0 −2 −1     0 0 1 0 0 1 RII 2. 0 −2 −1 −−−−→  0 −2 −1. 3 − 9 −3 23 3 4 −2 (− 4 )·3  4   0 0 1 0 4 3 RIII 3. 0 −2 −1 −−−−−−→ 0 −2 −1. 1+(−2)·2 3 4 −2 3 4 −2 3

c 2014 Gennaro Amendola

Versione 1.0

Lezione 16. Matrici

16–26

    0 0 1 0 0 1 CI 4. 0 −2 −1 −−−→ −2 0 −1. 1↔2 3 4 −2 4 3 −2     0 0 1 0 0 1 CII 5. 0 −2 −1 −−→  0 −2 −1. 5·1 3 4 −2 15 4 −2     0 0 1 0 1 1 CIII 6. 0 −2 −1 −−−→ 0 −3 −1. 2+1·3 3 4 −2 3 2 −2 Risultato        dell’Esercizio   16.10.  −2 4 −2 4 −2 4 0 1 −2 4  0 3  0 3  0 3 RI  0 3 RIII  0 3 RIII RIII    −−−  −−−    −−−→   −−−−→  − − − → − − − → −2 4 1↔3  0 1 4+ 1 ·1  0 1 3+ − 1 ·2  0 0 4+ − 2 ·2  0 0 . ) ) ( ( 2 3 3 0 2 0 2 0 0 1 0 1 0 Risultato dell’Esercizio  16.11.     1 3 1 1 3 1 −2 −6 −2 RIII RIII −3 −8 −3 −−RII → −−→ −3 −8 −3 −−−→ 0 1 0 −−−−−− 1 2+3·1 3+(−1)·1 − 2 )·1 ( 1 5 3 1 5 3 1 5 3       1 3 1 1 3 1 1 3 1 RIII RIII RII −−−−−−→ 0 1 0 −−−−−−→ 0 1 0 −−→ 0 1 0 . 1 3+(−1)·1 3+(−2)·2 ·3 2 0 2 2 0 0 1 0 0 2 Risultato dell’Esercizio16.12.      1 2 −1 −5 3 1 2 −1 −5 3 −4 −8 4 20 −12 1 0 1 2 2 1 0 0 3 6 −3 2 2 1 0  RIII  −−−  −RIII   −−RII −−−→  −−→ −−→      3+2·1 −2 −4 1  1 −2 −4 1 8 −5 −2 −4 1 8 −5 8 −5 2+(−1)·1 ·1 − ( 4) 0 0 −3 1 3 0 0 −3 1 3 0 0 −3 1 3     1 2 −1 −5 3 1 2 −1 −5 3  RII 0 0 1 2 −1 0 0 3 6 −3 RIII   −RIII  −−→  −−−→  −−→ 1  31 ·2 0 0 −1 −2 1  3+1·2 3+2·1 0 0 −1 −2 0 0 −3 1 3 0 0 −3 1 3     1 2 −1 −5 3 1 2 −1 −5 3 0 0 1 1 2 −1 2 −1 RIII 0 0  −RIII  −−RI −−−→  −−→  −→    0 0 0 0 0 0 0 0 0 0  3↔4 3+1·2 4+3·2 0 0 −3 1 3 0 0 0 7 0     1 2 −1 −5 3 1 2 −1 −5 3  RII 0 0 1 2 −1 0 0 1 2 −1 RI   −RIII  −−→  −−→ −−−→  1 0  1+1·2 0 7 0  17 ·3 0 0 0 3↔4 0 0 0 0 0 0 0 0 0 0 0 0     1 2 0 −3 2 1 2 0 0 2    0 0 1 2 −1 RIII 0 0 1 2 −1 RIII RIII  −−− −−−→  −−−→ −−−→  0 0 0 1 0  1+3·3 0 0 0 1 0  2+(−2)·3 1+1·2 0 0 0 0 0 0 0 0 0 0   1 2 0 0 2 0 0 1 0 −1 RIII . −−−−−−→  0 2+(−2)·3 0 0 0 1 0 0 0 0 0 c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 16/S3 MATRICI 1

Sessione di Studio 16.3

Matrici

Lezione 16. Matrici

16–27

Sessione di Studio 16.3 Letture supplementari possono essere le seguenti: • http://it.wikipedia.org/wiki/Matrice

• http://it.wikipedia.org/wiki/Matrice_trasposta • http://it.wikipedia.org/wiki/Matrice_quadrata

• http://it.wikipedia.org/wiki/Metodo_di_eliminazione_di_Gauss

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 17 Operazioni sulle matrici 1

Lezione 17 Operazioni sulle matrici

Lezione 17

Operazioni sulle matrici In questa lezione definiremo operazioni sulle matrici, che generalizzano quelle sui vettori colonna. Introdurremo anche una moltiplicazione, che non è stata definita sui vettori colonna.

17.1

Operazioni sulle matrici

Ora, descriveremo operazioni. ◮ Esse non sono come le operazioni elementari, che sono trasformazioni e non operazioni in senso stretto.

◮ Definizione 9.1.

Addizione e moltiplicazione per scalare Generalizziamo l’addizione e la moltiplicazione per scalare di vettori in Kn . ◮ Definizione 17.1. L’addizione di due matrici n × m su K è data da (aij )i=1,...,n + (bij )i=1,...,n := (aij + bij )i=1,...,n , j=1,...,m

ossia,



j=1,...,m

j=1,...,m

   · · · a1m b11 b12 · · · b1m   · · · a2m    b21 b22 · · · b2m  +   .. . .. ..  := .. .. . . .   .. . .  an2 · · · anm bn1 bn2 · · · bnm   a11 + b11 a12 + b12 · · · a1m + b1m  a21 + b21 a22 + b22 · · · a2m + b2m    :=  . .. .. .. ..   . . . .

a11  a21   ..  .

a12 a22 .. .

an1

an1 + bn1 an2 + bn2 · · · anm + bnm La moltiplicazione per scalare di una matrice n×m su K e uno scalare λ ∈ K è data da λ · (aij )i=1,...,n := (λaij )i=1,...,n , j=1,...,m

ossia,



a11  a21  λ· .  ..

an1

j=1,...,m

   λa11 λa12 · · · λa1m a12 · · · a1m  λa21 λa22 · · · λa2m  a22 · · · a2m     ..  . .. ..  :=  .. .. . .. .  . . . .  . .  . λan1 λan2 · · · λanm an2 · · · anm

c 2014 Gennaro Amendola

Versione 1.0

◮ Definizione 10.22.

Addizione sulle matrici The two additions in the equality are different: nel membro sinistro l’addizione è sulle matrici (vogliamo definirla), nel membro destro è sugli elementi di K. Quindi, i due simboli + rappresentano operazioni diverse: per semplicità, usiamo lo stesso simbolo + (usiamo la Notazione 10.11 perché vedremo che le matrici n × m formano uno spazio vettoriale). La differenza è anche chiara nella seconda uguaglianza.

Moltiplicazione matrici

per

scalare

sulle

Le due moltiplicazioni nell’uguaglianza sono diverse: nel membro sinistro la moltiplicazione è una moltiplicazione per scalare di un elemento di K e di una matrice (vogliamo definirla), nel membro destro è sugli elementi di K. Quindi, il simbolo · nel membro sinistro rappresenta un’operazione diversa rispetto alla moltiplicazione nel membro destro, in cui abbiamo evitato di scrivere il simbolo · (Notazione 9.37): per semplicità, usiamo lo stesso simbolo · (usiamo la Notazione 10.11 perché vedremo che le matrici n×m formano uno spazio vettoriale).

Lezione 17. Operazioni sulle matrici

17–2

Esempio 17.2. • In R2,3 abbiamo         3 2 −1 0 0 −2 3+0 2 + 0 −1 + (−2) 3 2 −3 + = = , 0 −3 5 −4 6 3 0 + (−4) −3 + 6 5+3 −4 3 8       2 0 −1 3·2 3 · 0 3 · (−1) 6 0 −3 3· = = . −3 1 3 3 · (−3) 3 · 1 3·3 −9 3 9

3,3  • In R abbiamo        0 2 −1 5 1 2 0+5 2+1 −1 + 2 5 3 1  1 0 3  + 1 −2 1 =  1 + 1 0 + (−2) 3 + 1  = 2 −2 4 , −2 4 1 2 0 2 −2 + 2 4+0 1+2 0 4 3       1 −2 −1 (−2) · 1 (−2) · (−2) (−2) · (−1) −2 4 2 (−2) · 4 0 0  = (−2) · 4 (−2) · 0 (−2) · 0  = −8 0 0 . 2 5 3 (−2) · 2 (−2) · 5 (−2) · 3 −4 −10 −6 Osservazione 17.3. L’addizione di due matrici che non hanno lo stesso numero di righe e di colonne non si può fare.

Osservazione 17.4. L’elemento neutro dell’addizione è la matrice nulla della dimensione adatta. Infatti, se A ∈ Kn,m , abbiamo 0n,m + A = A + 0n,m = A, come si può vedere scrivendo esplicitamente le matrici,       a11 a12 · · · a1m 0 0 ··· 0 a11 a12 · · · a1m  a21 a22 · · · a2m  0 0 · · · 0  a21 a22 · · · a2m         .. .. ..  +  .. .. . . ..  =  .. .. ..  . . . .  . . . .  . . . .  . . . .  an1 an2 · · · anm 0 0 ··· 0 an1 an2 · · · anm       a11 a12 · · · a1m a11 a12 · · · a1m 0 0 ··· 0 0 0 · · · 0  a21 a22 · · · a2m   a21 a22 · · · a2m         .. .. . . ..  +  .. ..  , .. ..  =  .. .. . . . . . . . . . .  . .  . .   . . an1 an2 · · · anm an1 an2 · · · anm 0 0 ··· 0 oppure usando la notazione compatta, (aij )i=1,...,n + (0)i=1,...,n = (aij + 0)i=1,...,n = (aij )i=1,...,n j=1,...,m

j=1,...,m

j=1,...,m

j=1,...,m

(0)i=1,...,n + (aij )i=1,...,n = (0 + aij )i=1,...,n = (aij )i=1,...,n . j=1,...,m

j=1,...,m

j=1,...,m

j=1,...,m

Kn,m

Osservazione 17.5. L’opposto di una matrice A ∈ è la matrice   −a11 −a12 · · · −a1m  −a21 −a22 · · · −a2m    −A := (−aij )i=1,...,n =  . ..  , .. .. j=1,...,m  .. . .  .

−an1 −an2 · · · −anm della stessa dimensione n × m di A. Infatti, abbiamo (−A) + A = A+(−A) = 0n,m , come si può vedere scrivendo esplicitamente le matrici,       a11 a12 · · · a1m −a11 −a12 · · · −a1m 0 0 ··· 0  a21 a22 · · · a2m   −a21 −a22 · · · −a2m  0 0 · · · 0        .. .. ..  +  .. .. ..  =  .. .. . . ..  .. ..  .     . . . . . . . . . . . 

an1 an2 · · · anm

−a11 −a12  −a21 −a22   .. ..  . . −an1 −an2

−an1 −an2 · · · −anm 0 0 ···     · · · −a1m a11 a12 · · · a1m 0 0 ···     · · · −a2m   a21 a22 · · · a2m  0 0 · · · ..  +  .. .. ..  =  .. .. . . .. .. . . . .   . . .  . . · · · −anm an1 an2 · · · anm 0 0 ···

c 2014 Gennaro Amendola

Versione 1.0

0  0 0  ..  , . 0

Lezione 17. Operazioni sulle matrici

17–3

oppure usando la notazione compatta, (aij )i=1,...,n + (−aij )i=1,...,n = (aij − aij )i=1,...,n = (0)i=1,...,n j=1,...,m

j=1,...,m

j=1,...,m

j=1,...,m

(−aij )i=1,...,n + (aij )i=1,...,n = (−aij + aij )i=1,...,n = (0)i=1,...,n . j=1,...,m j=1,...,m j=1,...,m j=1,...,m   0 0 Esempio 17.6. • L’elemento neutro in R2,2 è . Per esempio, 0 0 abbiamo       2 0 0 0 2 0 + = , −1 4 0 0 −1 4       2 0 2 0 0 0 + = . 0 0 −1 4 −1 4     1 3 −1 −3 • In R3,2 l’opposto della matrice  2 0 è la matrice −2 0 , −2 5 2 −5 infatti abbiamo       1 3 −1 −3 0 0  2 0 + −2 0  = 0 0 , −2 5 2 −5 0 0       0 0 1 3 −1 −3 −2 0  +  2 0 = 0 0 . 0 0 −2 5 2 −5 Proposizione 17.7. L’insieme Kn,m con l’addizione + : Kn,m ×Kn,m → Kn,m e la moltiplicazione per scalare · : K × Kn,m → Kn,m definite sopra è uno spazio vettoriale su K.

La dimostrazione di questa proposizione è analoga a quella della Proposizione 10.25, quindi la lasciamo al lettore. Osservazione 17.8. Visto che Kn,m è uno spazio vettoriale su K è possibile fare combinazioni lineari di matrici. La combinazione lineare delle matrici A1 , A2 , . . . , Ak ∈ Kn,m con coefficienti λ1 , λ1 , . . . , λk ∈ K è λ1 · A1 + λ2 · A2 + · · · + λk · Ak ,

e ha come risultato la matrice che al posto (i, j) ha l’elemento λ1 · (A1 )ji + λ2 · (A2 )ji + · · · + λk · (Ak )ji . Esempio 17.9. La combinazione lineare delle     3 −2 2 6 3 −1 e , con coefficienti 2, 1 0 −1 1 1 0 −1      2 −1 0 3 −2 2 6 2 +1 + (−1) 1 2 1 0 −1 1 1

matrici



Per la Notazione 16.6, (Al )ji indica l’elemento della matrice Al al posto (i, j).

 2 −1 0 , 1 2 1

e −1, in R2,3 , è  3 −1 . 0 −1

Ricordiamo che nella Notazione 10.9 abbiamo stipulato che la moltiplicazione per scalare è fatta prima della somma e abbiamo deciso di evitare di scrivere, se non è necessario, il simbolo della moltiplicazione per scalare “·”, quindi la scrittura λA significa λ · A.

Il suo risultato è     2 · 2 + 1 · 3 + (−1) · 6 2 · (−1) + 1 · (−2) + (−1) · 3 2 · 0 + 1 · 2 + (−1) · (−1) 1 −7 3 = . 2 · 1 + 1 · 0 + (−1) · 1 2 · 2 + 1 · (−1) + (−1) · 0 2 · 1 + 1 · 1 + (−1) · (−1) 1 3 4

Definizione 17.10. Chiamiamo base canonica di Kn,m l’insieme ordi-

c 2014 Gennaro Amendola

Versione 1.0

Base canonica di Kn,m

Lezione 17. Operazioni sulle matrici

17–4

nato En,m := {E11 , E12 , . . . , E1m , E21 , E22 , . . . , E2m , . . . , En1 , En2 , . . . , Enm }, dove Eij = (ekl )k=1,...,n è la matrice che ha 1 al posto (i, j) e 0 altrove, l=1,...,m

ossia tale che eij  1 0  E11 :=  .  .. E21 .. .

En1



0

0 1  :=  .  .. 0

◮ eij è l’elemento al posto (i, j) della matrice Eij , e ekl è l’elemento al posto (k, l) della matrice Eij .

= 1 e ekl = 0 se (k, l) 6= (i, j), ◮ ossia      0 ··· 0 0 1 ··· 0 0 0 ··· 1 0 0 · · · 0 0 0 · · · 0 0 · · · 0      .. . . ..  , E12 :=  .. .. . . ..  , . . . , E1m :=  .. .. . . ..  , . . . . . . . . . . . 0 ··· 0 0 0 ··· 0 0 0 ··· 0      0 ··· 0 0 0 ··· 0 0 0 ··· 0 0 1 · · · 0 0 0 · · · 1 0 · · · 0      .. . . ..  , E22 :=  .. .. . . ..  , . . . , E2m :=  .. .. . . ..  , . . . . . . . . . . . 0 ··· 0 0 0 ··· 0 0 0 ··· 0

     0 0 ··· 0 0 0 ··· 0 0 0 ··· 0 0 0 · · · 0 0 0 · · · 0 0 0 · · · 0       := := :=  . . . , . . . , E , E  .. .. . . ..  .  .. .. . . ..  . nm n2   . .  .. .. . . ..  . . . . . . 0 0 ··· 1 0 1 ··· 0 1 0 ··· 0 

Osservazione 17.11. La notazione è lievemente ambigua: ad esempio, con E11 indichiamo sia la matrice ( 10 00 ) ∈ K2,2 che la matrice ( 10 00 00 ) ∈ K2,3 . Tuttavia, sarà chiaro dal contesto quale matrice stiamo considerando. Proposizione 17.12. La base canonica En,m è effettivamente una base di Kn,m .

Dimostrazione. La dimostrazione è analoga a quella della Proposizione 14.12: non entreremo nei dettagli, che lasciamo al lettore. Per dimostrare che le matrici Eij sono linearmente indipendenti consideriamo una combinazione lineare che ha come risultato zero, X λij Eij = 0; i=1,2,...,n j=1,2,...,m

facendo la somma otteniamo che la matrice (λij )i=1,...,n è uguale alla j=1,...,m

matrice nulla, e deduciamo che i coefficienti λij sono tutti nulli (Osservazione 13.4). Per dimostrare invece che le matrici Eij generano Kn,m consideriamo una generica matrice (aij )i=1,...,n di Kn,m e dimostriamo che è il risultato j=1,...,m

della combinazione lineare delle matrici Eij con coefficienti aij . Proposizione 17.13. La dimensione dello spazio vettoriale Kn,m è n·m. Dimostrazione. La base canonica En,m di Kn,m descritta sopra ha n · m elementi, quindi dim (Kn,m ) = n · m.

c 2014 Gennaro Amendola

Versione 1.0

Dobbiamo dimostrare che l’insieme ordinato En,m è effettivamente una base di Kn,m : non è sufficiente chiamarlo “base canonica” per essere sicuri che sia una base.

Lezione 17. Operazioni sulle matrici

17–5

Prodotto righe per colonne Definizione 17.14. Siano A = (aij )i=1,...,n ∈ Kn,k e B = (bij )i=1,...,k ∈ j=1,...,k

Prodotto righe per colonne

j=1,...,m

Kk,m matrici. Il prodotto righe per colonne di A e B è la matrice (cij )i=1,...,n tale che j=1,...,m

cij =

k X

aip bpj .

p=1

Questa matrice è indicata con A · B.

Osservazione 17.15. Il prodotto righe per colonne di due matrici può essere fatto solo se il numero delle colonne della prima matrice è uguale al numero delle righe della seconda. Esempio 17.16. Per calcolare il prodotto righe  per colonnedella matri2 −1 3    1 0 3 2 1 0 4 , ◮ abbiamo ce 2 × 4 e della matrice 4 × 3   −1 2 4 0 −1 −2 0 0 5 1 che • l’entrata (1, 1) della matrice prodotto è 1·2+0·1+3·(−1)+2·0 = −1,

◮ Nota che il numero delle colonne della prima matrice è uguale al numero delle righe della seconda (4).

• l’entrata (1, 2) della matrice prodotto è 1·(−1)+0·0+3·(−2)+2·5 = 3,

• l’entrata (1, 3) della matrice prodotto è 1 · 3 + 0 · 4 + 3 · 0 + 2 · 1 = 5,

• l’entrata (2, 1) della matrice prodotto è −1·2+2·1+4·(−1)+0·0 = −4, • l’entrata (2, 2) della matrice prodotto è −1 · (−1) + 2 · 0 + 4 · (−2) + 0 · 5 = −7,

• l’entrata (2, 3) della matrice prodotto è −1·3+2·4+4·0+0·1 = 5. Quindi, la matrice prodotto è   2 −1 3     1 0 3 2  1 0 4 −1 3 5   · = . −1 2 4 0 −1 −2 0 −4 −7 5 0 5 1 Essa è una matrice 2 × 3.

Osservazione 17.17. Possiamo anche vedere il prodotto righe per colonne come segue. In questa osservazione, per semplicità, useremo le matrici 1 × 1 e non distingueremo una matrice 1 × 1 dal suo (unico) elemento al posto (1, 1). Cominciamo dal prodotto righe per colonne di una matrice 1 × k e di una matrice k × 1, che dà una matrice 1 × 1:   b11  P   b21   k a11 a12 · · · a1k ·  .  = a b p=1 1p p1 ,  ..  bk1 c 2014 Gennaro Amendola

Versione 1.0

Vediamo perché viene usato il nome “prodotto righe per colonne”.

Il fatto che il prodotto righe per colonne di una matrice 1×k e di una matrice h×1 non può essere fatto se non c’è corrispondenza tra le colonne della prima e le righe della seconda, ossia se k 6= h, spiega perché il prodotto righe per colonne di una matrice n × k e di una matrice h × m con k 6= h non può essere fatto.

Lezione 17. Operazioni sulle matrici

17–6

ossia scorriamo la riga della prima matrice e la colonna della seconda, e facciamo l’addizione dei prodotti degli elementi corrispondenti, a11 b11 + a12 b21 + · · · + a1k bk1 . Supponiamo ora che A sia un matrice n × k e B sia una matrice k × m. Scriviamo A utilizzando le sue n righe Ai , con i = 1, 2, . . . , n, e B utilizzando le sue m colonne B j , con j = 1, 2, . . . , m. Il prodotto righe per colonne di A e B è     A1 · B 1 A1 · B 2 · · · A1 · B m A1 1 2 m  A2     A2 · B A2 · B · · · A2 · B     ..  · B 1 B 2 · · · B m =  .. , .. . .. ..  .  .   . . An An · B 1 An · B 2 · · · An · B m ossia al posto (i, j) mettiamo il prodotto righe per colonne della i-esima riga di A e della j-esima colonna di B,   b1j  P   b2j   k Ai · B j = ai1 ai2 · · · aik ·  .  = , (17.1) a b ip pj p=1  .. 

bkj ossia per avere l’elemento al posto (i, j) scorriamo la i-esima riga di A e la j-esima colonna di B, e facciamo l’addizione dei prodotti degli elementi corrispondenti, ai1 b1j + ai2 b2j + · · · + aik bkj .

Osservazione 17.18. Il prodotto righe per colonne di due matrici diagonali è semplice da calcolare:   Diag (d1 , d2 , . . . , dn )·Diag d′1 , d′2 , . . . , d′n = Diag d1 d′1 , d2 d′2 , . . . , dn d′n .

Infatti, per l’osservazione precedente abbiamo che al posto (i, j) della matrice prodotto mettiamo il prodotto righe per colonne della i-esima riga di Diag (d1 , d2 , . . . , dn ) e della j-esima colonna di Diag (d′1 , d′2 , . . . , d′n ). La i-esima riga di Diag (d1 , d2 , . . . , dn ) è formata da zeri, eccetto eventualmente per l’i-esimo posto, dove c’è di . Analogamente, la j-esima colonna di Diag (d′1 , d′2 , . . . , d′n ) è formata da zeri, eccetto eventualmente per il j-esimo posto, dove c’è d′j . Quindi, il prodotto (17.1) diventa di d′i se i = j, oppure 0 se i 6= j.

Osservazione 17.19. Se m = 1, ossia se la seconda matrice è un vettore colonna, il prodotto righe per colonne può essere visto anche come segue. Abbiamo,       Pk   a1p bp1 a11 a12 · · · a1k b11 a1p p=1 P  X k k  a21 a22 · · · a2k  b21     a b        p=1 2p p1   a2p  bp1  .  ,  .. .. ..  ·  ..  =  .. .. =  .  ..  . . .   .   .  p=1 Pk an1 an2 · · · ank bk1 anp p=1 anp bp1

infatti nelle somme i coefficienti bj1 degli elementi aij sono gli stessi per tutti gli aij sulla stessa colonna. Ossia, il prodotto   righe per colonb1  b2    ne di una matrice A e di un vettore colonna  .  è il risultato della  .. 

bk combinazione lineare delle colonne di A con coefficienti bi . c 2014 Gennaro Amendola

Versione 1.0

I vari prodotti Ai · B j sono matrici 1 × 1, quindi nella matrice a destra avremmo dovuto scrivere ogni elemento come 1 Ai · B j 1 . Ma, come detto sopra, per semplicità, in questa osservazione non distinguiamo una matrice 1 × 1 dal suo (unico) elemento al posto (1, 1). Notiamo che ogni riga di A ha lunghezza k (quindi può essere pensata come una matrice 1 × k) e ogni colonna di B ha anche lunghezza k (quindi può essere pensata come una matrice k × 1), quindi il prodotto righe per colonne può essere fatto.

Lezione 17. Operazioni sulle matrici

17–7

  2 −1 3 Esempio 17.20. Consideriamo il prodotto righe per colonne · 0 −2 4             1 5 = 6 . Abbiamo anche 1 2 + 5 −1 + 3 3 = 6 . 2 4 −2 0 2 3

Osservazione 17.21. Dati n, k, m ∈ N \ {0}, il prodotto righe per colonne definisce una funzione Kn,k × Kk,m ∋ (A, B) 7−→ A · B ∈ Kn,m . Proposizione 17.22. Il prodotto righe per colonne soddisfa le seguenti proprietà. 1. Sia A ∈ Kn,m una matrice, allora si ha 0k,n · A = 0k,m

A · 0m,h = 0n,h .

e

2. Sia A ∈ Kn,m una matrice, allora si ha In · A = A · Im = A (esistenza dell’elemento neutro a sinistra e a destra ◮). 3. Siano A ∈

Kn,k ,

B∈

Kk,h

eC∈

Kh,m

matrici, allora si ha

A · (B · C) = (A · B) · C (proprietà associativa). 4. Siano A ∈ Kn,k e B, C ∈ Kk,m matrici, allora si ha A · (λB + µC) = λ(A · B) + µ(A · C) (proprietà distributiva a destra). 5. Siano B, C ∈ Kn,k e A ∈ Kk,m matrici, allora si ha (λB + µC) · A = λ(B · A) + µ(C · A) (proprietà distributiva a sinistra). Non daremo la dimostrazione di questa proposizione, perché è abbastanza lunga. Esempio 17.23. Usiamo la notazione e i punti della Proposizione 17.22.   2 0 1 1. Consideriamo la matrice A = , con k = 2 e h = 4. 5 1 −4 Abbiamo       0 0 2 0 1 0 0 0 · = 0 0 5 1 −4 0 0 0 e       0 0 0 0 0 0 0 0 2 0 1   . · 0 0 0 0 = 0 0 0 0 5 1 −4 0 0 0 0   2 0 1 2. Consideriamo ancora la matrice A = . Abbiamo 5 1 −4       1 0 2 0 1 2 0 1 · = 0 1 5 1 −4 5 1 −4 c 2014 Gennaro Amendola

Versione 1.0

◮ Ma i due elementi neutri sono diversi, se A non è quadrata.

Notiamo che B · C ha dimensione k × m, e che A · B ha dimensione n × h, quindi i prodotti righe per colonne A · (B · C) e (A · B) · C possono essere fatti.

Lezione 17. Operazioni sulle matrici

e

17–8



   1 0 0 2 0 1 2 0 1 · 0 1 0 = . 5 1 −4 5 1 −4 0 0 1     0 1 1 1 3 3. Consideriamo le matrici A = ,B= eC= 3 −1 0 −1 2   2 0  1 −1. Abbiamo −3 4             2 0 0 1  1 1 3  0 1 −6 11 −7 9 · · 1 −1 = · = 3 −1 0 −1 2 3 −1 −7 9 −11 24 −3 4 e             2 0 2 0 0 −1 2 1 1 3 −7 9 0 1     · 1 −1 = · 1 −1 = · . 0 −1 2 3 4 7 3 −1 −11 24 −3 4 −3 4     1 −1 0 −1 0 4. Consideriamo le matrici A = ,B= eC= 2 0 1 2 0   1 −1 −1 , con λ = 2 e µ = −1. Abbiamo 0 1 −1            1 −1 0 −1 0 1 −1 −1 1 −1 −1 −1 1 −3 −4 0 · 2 − = · = 2 0 1 2 0 0 1 −1 2 0 2 3 1 −2 −2 2 e         1 −1 0 −1 0 1 −1 1 −1 −1 2 · − · = 2 0 1 2 0 2 0 0 1 −1       −1 −3 0 1 −2 0 −3 −4 0 =2 − = . 0 −2 0 2 −2 −2 −2 −2 2     1 0 0 −2 0 2 5. Consideriamo le matrici B = ,C= e 2 −1 −1 −3 1 0   1 −1 1 0 , con λ = 3 e µ = 2. Abbiamo A = 2 0 0 3 −1          1 −1 1   1 −1 1   1 0 0 −2 0 2 −1 0 4  −1 13 −5    3 +2 · 2 0 0 = · 2 0 0 = 2 −1 −1 −3 1 0 0 −1 −3 −2 −9 3 0 3 −1 0 3 −1 e           1 −1 1 1 −1 1 1 0 0 −2 0 2  3 · 2 0 0  + 2  · 2 0 0  = 2 −1 −1 −3 1 0 0 3 −1 0 3 −1       1 −1 1 −2 8 −4 −1 13 −5 =3 +2 = . 0 −5 3 −1 3 −3 −2 −9 3 



Osservazione 17.24. Il prodotto righe per colonne non è in generale commutativo, in realtà non lo è quasi mai. c 2014 Gennaro Amendola

Versione 1.0

Lezione 17. Operazioni sulle matrici

17–9

Innanzitutto, abbiamo restrizioni sul numero di righe e di colonne delle matrici di cui vogliamo fare il prodotto righe per colonne. Ricordiamo che, se vogliamo fare il prodotto righe per colonne A · B di due matrici A ∈ Kn,m e B ∈ Kh,k , dobbiamo avere m = h. Se, inoltre, vogliamo poter fare anche il prodotto righe per colonne B · A, dobbiamo avere anche k = n. Abbiamo quindi A ∈ Kn,m e B ∈ Km,n . Inoltre, notiamo che la matrice A · B è n × n, mentre la matrice B · A è m × m, quindi se vogliamo A · B = B · A, dobbiamo avere anche n = m. Ricapitolando, il prodotto righe per colonne potrebbe essere commutativo solo su matrici quadrate dello stesso ordine A, B ∈ Kn,n . Anche in questo caso, tuttavia, non è detto che A · B = B · A: in generale, questo non vale (in realtà quasi mai), come si può vedere nell’esempio sotto. L’unico caso in cui siamo sicuri che il prodotto righe per colonne è il caso n = 1, ossia in K1,1 . Infatti, se   è commutativo A = a11 e B = b11 , abbiamo ◮   A · B = a11 b11 = b11 a11 = B · A.

◮ Nella seconda uguaglianza abbiamo usato la proprietà commutativa della moltiplicazione in K.

Se n > 2, il prodotto righe per colonne non è in generale commutativo, anche se alcune coppie di matrici commutano. Ad esempio, per il punto 1 della Proposizione 17.22 abbiamo che 0n,n · A = A · 0n,n , oppure per il punto 2 della Proposizione 17.22 abbiamo che In · A = A · In .

Definizione 17.25. Due matrici quadrate A e B dello stesso ordine tali che A · B = B · A sono dette commutare.     2 0 1 1 Esempio 17.26. 1. Le matrici A = e B = sono 0 1 0 1 quadrate dello stesso ordine ma non commutano:     2 2 2 1 A·B = 6= = B · A. 0 1 0 1     3 2 −4 −6 2. Le matrici A = eB= commutano: −1 0 3 5     −6 −8 −6 −8 = B · A. = A·B = 4 6 4 6     3 1 2 3 −1 3. Le matrici A = e B = −1 1 non possono com2 0 3 0 2 mutare, perché non sono quadrate dello stesso ordine:     8 9 0 3 3 A·B = 6= 0 −3 4 = B · A. 6 8 4 0 6

Osservazione 17.27. Lo spazio Kn,n è dotato di addizione e prodotto righe per colonne, ma per n > 1 queste operazioni non soddisfano tutte le proprietà che devono essere soddisfatte in un campo ◮, quindi Kn,n , per n > 1, con le operazioni di addizione e prodotto righe per colonne non è un campo. ◮ che Al contrario, per n = 1, abbiamo essenzialmente che K1,1 è K ◮ è un campo. c 2014 Gennaro Amendola

Versione 1.0

Matrici che commutano

◮ Per esempio, il prodotto righe per colonne non è commutativo, come mostrato nell’esempio sopra (si veda la Definizione 9.29). ◮ ◮ Osservazione 16.8.

Lezione 17. Operazioni sulle matrici

17–10

Notazione 17.28. Per semplicità, se non è necessario, eviteremo di scrivere il simbolo del prodotto righe per colonne “·”, quindi la scrittura AB significa A · B.

Notazione 17.29. Come abbiamo fatto per i campi ◮ stipuliamo che il prodotto righe per colonne è fatta prima dell’addizione. La scrittura A · B + C · D quindi non è ambigua: essa significa (A · B) + (C · D). Nel caso in cui l’addizione debba essere fatta prima, usiamo le parentesi  opportunamente: ad esempio, A · (B + C · D) significa A · B + (C · D) .

Osservazione 17.30. Contrariamente a quanto succede sui numeri, può succedere di avere A · B = 0 senza che A o B siano nulle, come mostrato nell’esempio sotto. Solo nel caso K1,1 , visto che K1,1 è praticamente K ◮, se abbiamo AB = 0, allora siha A = 0 o B = 0 (o entrambe le cose).  Infatti,  abbiamo A = a11 , B = b11 e AB = a11 b11 . Se AB = 0 , allora a11 b11 = 0. Per legge di annullamento del prodotto nel campo K ◮, abbiamo a11 = 0 o b11 = 0 (o entrambe le cose), quindi A = 0 o B = 0 (o entrambe le cose).  Esempio 17.31. 1. Consideriamo le matrici A = 1 1 e B =      1   1 . Abbiamo AB = 1 1 = 1 · 1 + 1 · (−1) = 0 , −1 −1 ma sia A che B non sono nulle.    0 0 1 0 . Abbiamo e B = 2. Consideriamo le matrici A = 0 1 0 0     0 0 0 0 A·B = e B ·A = , ma sia A che B non sono nulle. 0 0 0 0

◮ Notazione 9.37.

◮ Osservazione 16.8.

◮ Proposizione 9.36.

Osservazione 17.32. Abbiamo t (AB) = t B t A. Non daremo la dimostrazione di questo fatto, anche se non è difficile.     1 0 3 −2   2 −1 Esempio 17.33. Consideriamo le matrici A = eB = . 0 5 0 1 Abbiamo   t  t     1 0  3 −2 3 −2 3 6 0 t  = 6 −9 = (AB) = 2 −1 0 5 −2 −9 5 0 1 0 5 e      3 0 1 2 0 3 6 0 t t B A= = . −2 5 0 −1 1 −2 −9 5 Notazione 17.34. Se A è una matrice quadrata n × n, analogamente alla Notazione 9.37, indichiamo il prodotto |AA{z · · · A} con Ak per k > 1,

e, per coerenza, poniamo A0 := In .

k volte



 2 1 Esempio 17.35. Consideriamo la matrice A = . Abbiamo −1 0          1 0 2 1 2 1 2 1 3 2 A0 = , A1 = , A2 = = , 0 1 −1 0 −1 0 −1 0 −2 −1          2 1 2 1 2 1 3 2 2 1 4 3 3 A = = = . −1 0 −1 0 −1 0 −2 −1 −1 0 −3 −2 c 2014 Gennaro Amendola

Versione 1.0

Lezione 17. Operazioni sulle matrici

17–11

Osservazione 17.36. Se A e B sono matrici quadrate dello stesso ordine, in generale non è vero che (AB)k = Ak B k per k > 2. Ciò succede se AB = BA; infatti se AB = BA abbiamo · · · A BB · · · B = Ak B k , (AB)k = (AB)(AB) · · · (AB) = AA {z } | {z } | {z } | k volte

k volte

k volte

dove per la seconda uguaglianza abbiamo ripetutamente usato il fatto che AB = BA.

Per completezza, notiamo solamente che il contrario non è vero. Può succedere che due matrici non commutino, ma la formula k k (AB)k = A B  valga:  per esempio, per le 0 0 0 1 matrici e . 0 1 0 0

Esempio 17.37. Consideriamo i primi due punti dell’Esempio 17.26. 1. Abbiamo   2  2   2 0 1 1 2 2 4 6 2 (AB) = = = 0 1 0 1 0 1 0 1 e  2  2      2 0 1 1 4 0 1 2 4 8 2 2 A B = = = , 0 1 0 1 0 1 0 1 0 1 quindi abbiamo (AB)2 6= A2 B 2 . ◮

2. Abbiamo

2

(AB) = e 2

2

A B =





3 2 −1 0



◮ Notiamo che A e B non commutano (Esempio 17.26-1).

2  2   −4 −6 −6 −8 4 0 = = 3 5 4 6 0 4

2  2      3 2 −4 −6 7 6 −2 −6 4 0 = = , −1 0 3 5 −3 −2 3 7 0 4

quindi abbiamo (AB)2 = A2 B 2 . ◮

17.2

◮ Notiamo che A e B commutano (Esempio 17.26-2).

Matrici invertibili

In questa sezione ci occupiamo solo di matrici quadrate. Infatti, l’inversione di matrici è definita solo per (alcune) matrici quadrate. Definizione 17.38. Una matrice quadrata n × n A è detta invertibile se esiste una matrice, che indichiamo con A−1 , tale che A · A−1 = A−1 · A = In . La matrice A−1 , quando esiste, è detta inversa di A. Osservazione 17.39. L’inversa di una matrice, se esiste, è unica. ◮   2 1 0 Esempio 17.40. 1. L’inversa della matrice 1 0 −3 è la matri0 1 5   3 −5 −3 ce −5 10 6 , ◮ infatti abbiamo 1 −2 −1      1 0 0 2 1 0 3 −5 −3 1 0 −3 −5 10 6  = 0 1 0 0 0 1 0 1 5 1 −2 −1 e      3 −5 −3 2 1 0 1 0 0 −5 10 6  1 0 −3 = 0 1 0 . 1 −2 −1 0 1 5 0 0 1 c 2014 Gennaro Amendola

Versione 1.0

Matrice invertibile Solo le matrici quadrate possono essere invertibili. Matrice inversa ◮ Proposizione 9.18.

◮ Vedremo come trovare l’inversa matrice nell’Esempio 17.45-1.

della

Lezione 17. Operazioni sulle matrici

2. La matrice



1 1 0 0



17–12

non è invertibile. ◮

◮ Vedremo una dimostrazione di questo fatto nell’Esempio 17.45-2.

3. La matrice In è invertibile per ogni n, e la sua inversa è In stessa, infatti abbiamo In · In = In . ◮ 4. La matrice 0n,n non è invertibile per ogni n, infatti il prodotto di 0n,n e una qualsiasi matrice n × n è 0n,n , ◮ che è diversa da In .

◮ Proposizione 17.22-2.

◮ Proposizione 17.22-1.

Osservazione 17.41. La definizione sopra è coerente con la Definizione 9.14 e con le Notazioni 9.20 e 17.34. Infatti, • se A è invertibile, abbiamo A1 A−1 = A0 = In ,

An Am = An+m ,

(An )m = Anm ,

con le ultime due uguaglianze che valgono per ogni n, m ∈ Z;

• se A non è invertibile, abbiamo An Am = An+m ,

(An )m = Anm ,

soltanto per ogni n, m ∈ N.

Osservazione 17.42. Se A e B sono matrici quadrate dello stesso ordine, abbiamo (AB)−1 = B −1 A−1 . Infatti, abbiamo ◮  (A)  (A) (I) (I) (AB) B −1 A−1 = ABB −1 A−1 = A BB −1 A−1 = AA−1 = I.

(A)

◮ Nelle uguaglianze = abbiamo usato la proprietà associativa del prodotto righe per colonne (Proposizione 17.22-3), men-

e

  (I) (A) (A) (I) B −1 A−1 (AB) = B −1 A−1 AB = B −1 A−1 A B = BB −1 = I.     1 1 1 3 Esempio 17.43. Consideriamo le matrici A = eB= . 0 1 1 2 Abbiamo     −2 5 2 5 −1 and (AB) = AB = 1 −2 1 2 e       1 −1 −2 3 −2 5 −1 −1 −1 −1 A = , B = and B A = . 0 1 1 −1 1 −2

Osservazione 17.44. Per calcolare l’inversa di una matrice A = (aij )i=1,...,n , j=1,...,n

per ora, abbiamo una sola possibilità: risolvere il sistema (matriciale)  A · X = In , (17.2) X · A = In

dove X = (xij )i=1,...,n è una matrice incognita. Riscrivendo il sistema, otteniamo   a11 a12        a21 a22    ..  ..   .  .    a a n1 n2  x11 x12         x21 x22    .. ..    . .    xn1 xn2

j=1,...,n

  · · · a1n x11 x12   · · · a2n   x21 x22 ..  ·  .. .. .. . .   . . · · · ann  xn1 xn2 · · · x1n a11 a12   · · · x2n   a21 a22 ..  ·  .. .. .. . .   . . · · · xnn an1 an2

c 2014 Gennaro Amendola

  · · · x1n 1   · · · x2n  0 ..  =  .. .. . .  . · · · xnn  0 · · · a1n 1   · · · a2n  0 ..  =  .. .. . .  . · · · ann

0 ··· 1 ··· .. . . . . 0 ··· 0 ··· 1 ··· .. . . . .

 0 0  ..  .

1 , 0 0  ..  .

0 0 ··· 1

Versione 1.0

(I)

tre nelle uguaglianze = abbiamo usato la definizione di A−1 (Definizione 17.38).

Lezione 17. Operazioni sulle matrici

17–13

ossia, facendo i due prodotti righe per colonne,     a11 x11 + · · · + a1n xn1 · · · a11 x1n + · · · + a1n xnn 1        . . . .  .. .. ..   =  ..     an1 x11 + · · · + ann xn1 · · · an1 x1n + · · · + ann xnn  0 x11 a11 + · · · + x1n an1 · · · x11 a1n + · · · + x1n ann 1        .. . . .  .. ..    =  .. .    xn1 a11 + · · · + xnn an1 · · · xn1 a1n + · · · + xnn ann 0

 ··· 0 . . ..  . . · · · 1 . ··· 0 . . ..  . . ··· 1

Arriviamo quindi a un sistema con 2n2 equazioni,   a x + a x + · · · + a x = 1   11 11 12 21 1n n1       a x + a x + · · · + a x = 0  11 12 12 22 1n n2   prima equazione – prima riga  ..    .        a11 x1n + a12 x2n + · · · + a1n xnn = 0     .   ..        an1 x11 + an2 x21 + · · · + ann xn1 = 0       a x + a x + · · · + a x = 0  n1 12 n2 22 nn n2   prima equazione – n-esima riga  .  ..         an1 x1n + an2 x2n + · · · + ann xnn = 1  , x11 a11 + x12 a21 + · · · + x1n an1 = 1         x11 a12 + x12 a22 + · · · + x1n an2 = 0    seconda equazione – prima riga  .  ..          x11 a1n + x12 a2n + · · · + x1n ann = 0     ..   .      xn1 a11 + xn2 a21 + · · · + xnn an1 = 0         xn1 a12 + xn2 a22 + · · · + xnn an2 = 0     seconda equazione – n-esima riga ..    .       xn1 a1n + an2 x2n + · · · + xnn ann = 1

e n2 incognite, xij con i, j = 1, 2, . . . , n. Se il sistema ha una soluzione X, essa è l’inversa A−1 di A. Se il sistema non ha soluzioni, la matrice A non è invertibile. Il sistema non può avere più di una soluzione, perché altrimenti otterremmo più di una inversa di A, contraddicendo l’Osservazione 17.39. Esempio 17.45. Consideriamo i primi due punti dell’Esempio 17.40.   2 1 0 1. Per trovare l’inversa della matrice 1 0 −3, consideriamo il 0 1 5 sistema matriciale        x11 x12 x13 2 1 0 1 0 0    1 0 −3 · x21 x22 x23  = 0 1 0     0 1 5 x31 x32 x33  0 0 1 , x x x 2 1 0 1 0 0  11 12 13          x21 x22 x23 · 1 0 −3 = 0 1 0   x31 x32 x33 0 1 5 0 0 1 c 2014 Gennaro Amendola

Versione 1.0

Lezione 17. Operazioni sulle matrici

17–14

ossia, facendo i due prodotti righe per colonne,      2x + x 2x + x 2x + x 1 0 0  11 21 12 22 13 23   x11 − 3x31 x12 − 3x32 x13 − 3x33  = 0 1 0     0 0 1  x21 + 5x31 x22 + 5x32 x23 + 5x33   . 1 0 0 2x11 + x12 x11 + x13 −3x12 + 5x13     2x21 + x22 x21 + x23 −3x22 + 5x23  = 0 1 0    0 0 1 2x31 + x32 x31 + x33 −3x32 + 5x33

Arriviamo quindi a un sistema con 18 equazioni,   2x + x = 1   11 21    2x + x = 0 prima equazione – prima riga  12 22     2x + x = 0  13 23      x11 − 3x31 = 0      x12 − 3x32 = 1 prima equazione – seconda riga      x − 3x = 0 13 33      x + 5x =0   21 31    x22 + 5x32 = 0 prima equazione – terza riga     x23 + 5x33 = 1  . 2x   11 + x12 = 1     x11 + x13 = 0 seconda equazione – prima riga      −3x12 + 5x13 = 0      2x  21 + x22 = 0     x + x = 1 seconda equazione – seconda riga 21 23      −3x22 + 5x23 = 0      2x   31 + x32 = 0    x + x = 0 seconda equazione – terza riga  31 33    −3x32 + 5x33 = 1   3 −5 −3 La soluzione ◮ è la matrice −5 10 6 . 1 −2 −1   1 1 2. Per dimostrare che la matrice non ha l’inversa, consideria0 0 mo il sistema matriciale        1 1 1 0 x11 x12   = ·  x21 x22  0 1 , 0 0 1 0 1 1 x11 x12   =  · 0 1 0 0 x21 x22 ossia, facendo i due prodotti righe per colonne,      x11 + x21 x12 + x22 1 0   =  0  0  0 1  . x x 1 0  11 11   = 0 1 x21 x21

c 2014 Gennaro Amendola

Versione 1.0

◮ Abbiamo visto come risolvere i sistemi nella Lezione 4.

Lezione 17. Operazioni sulle matrici

17–15

Arriviamo quindi a un sistema con 8 equazioni,   x + x = 1 11 21   prima equazione – prima riga   x12 + x22 = 0    0=0    prima equazione – seconda riga  0=1  . x11 = 1   seconda equazione – prima riga    x11 = 0      x21 = 0   seconda equazione – seconda riga x21 = 1   1 1 Questo sistema non ha soluzione, ◮ quindi la matrice non 0 0 ha l’inversa.

◮ Abbiamo visto come risolvere i sistemi nella Lezione 4.

Coniugio Definizione 17.46. Due matrici A, B ∈ Kn,n sono dette coniugate, o simili, se esiste una matrice invertibile C ∈ Kn,n tale che

Matrici coniugate/simili

In questo caso, la matrice B è detta coniugata di (o ad) o simile ad A tramite C.   −1 2 Esempio 17.47. La matrice A = è coniugata alla matrice 3 −1     5 5 2 1 B= . Infatti, scegliendo la matrice C = abbiamo ◮ −6 −7 3 2       2 −1 −1 2 2 1 5 5 −1 C AC = = = B. −3 2 3 −1 3 2 −6 −7

Matrice coniugata

C

−1

Le due matrici devono essere quadrate.

· A · C = B.

◮ Per trovare l’inversa di C, controllare l’inversa di C, e fare il prodotto righe per colonne, si vedano rispettivamente gli Esercizi 17.3, 17.2 e 17.1.

Proposizione 17.48. La relazione di coniugio, per cui due matrici sono in relazione se e solo sono coniugate, è una relazione di equivalenza su Kn,n . Dimostrazione. (∗∗) Verifichiamo che le tre proprietà della definizione sono soddisfatte ◮. Proprietà riflessiva: per ogni A ∈ Kn,n abbiamo che A è coniugata a sé stessa. Infatti, abbiamo (In )−1 · A · In = A.

Proprietà simmetrica: per ogni A1 , A2 ∈ Kn,n abbiamo che se A1 è coniugata ad A2 allora A2 è coniugata ad A1 . Infatti, se esiste una matrice invertibile C tale che C −1 · A 1 · C = A2 , allora abbiamo −1 −1 ◮, ossia (C ′ ) · A2 · C −1 ◮ A1 = C · A2 · C −1 ◮, ossia A1 = C −1 · ′ ′ −1 A2 · C = A1 con C = C .

Proprietà transitiva: per ogni A1 , A2 , A3 ∈ Kn,n abbiamo che se A2 è coniugata ad A1 e A3 è coniugata ad A2 , allora A3 è coniugata ad A1 . Infatti, se esistono una matrice invertibile C tale che C −1 · A1 · C = A2 e una matrice invertibile C ′ tale che (C ′ )−1 · A2 · C ′ = A3 , allora abbiamo ◮ −1  −1   (A) A3 = C ′ · A2 · C ′ = C ′ · C −1 · A1 · C · C ′ = −1   (P) −1  (A) = C′ · C −1 · A1 · C · C ′ = C · C ′ · A1 · C · C ′ ,

c 2014 Gennaro Amendola

Versione 1.0

◮ Definizione 6.29.

◮ Moltiplichiamo entrambi i membri prima a sinistra per C e poi a destra per C −1 . ◮ ◮ L’inversa di una matrice inversa è la matrice stessa (Osservazione 9.19).

(A)

◮ Nell’uguaglianza = abbiamo usato la proprietà associativa del prodotto righe per colonne (Proposizione 17.22-3), mentre (P)

nell’uguaglianza = abbiamo usato il fatto che la matrice inversa di un prodotto è il prodotto delle matrici inverse scambiate (Osservazione 17.42).

Lezione 17. Operazioni sulle matrici

17–16

ossia (C ′′ )−1 · A1 · C ′′ = A3 con C ′′ = C · C ′ . Definizione 17.49. Una matrice A ∈ Kn,n che è simile a una matrice diagonale è detta diagonalizzabile. In questo caso, una matrice C ∈ Kn,n tale che C −1 · A · C è diagonale è detta matrice diagonalizzante.

Matrice diagonalizzabile Matrice diagonalizzante

Ci occuperemo dello studio delle matrici diagonalizzabili e della ricerca delle matrici diagonalizzanti nella Lezione 32. Osservazione 17.50. Il calcolo delle potenze (con esponente grande) di una matrice diagonalizzabile è molto più veloce del conto esplicito, fatto con il prodotto righe per colonne. Infatti, sia A una matrice diagonalizzabile e sia C una matrice diagonalizzante. Abbiamo C −1 · A · C = D, dove D = Diag (d1 , d2 , . . . , dn ), quindi abbiamo A = C · D · C −1 . La k-esima potenza di A, con k > 1, è ◮ Ak = C · D · C

 −1 k

z

= C ·D·C

k volte

 −1

}|  · C · D · C −1 · · · · · C · D · C

k−1 volte

(A)

◮ Nell’uguaglianza = abbiamo usato la proprietà associativa del prodotto righe per colonne (Proposizione 17.22-3). {  (A) −1

=

}| z    { = C · D · C −1 · C · D · C −1 · C · D · · · · · C −1 · C · D ·C −1 =

(A)

k−1 volte

z }| { = C · D · D · D · · · · · D ·C −1 =

= C · D k · C −1 .

Ci rimane da calcolare D k , che però è facile da calcolare: ◮   D k = Diag (d1 )k , (d2 )k , . . . , (dn )k .

c 2014 Gennaro Amendola

◮ Osservazione 17.18.

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 17 Operazioni sulle matrici 3

Lezione 17 Aula virtuale

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 17 Operazioni sulle matrici 3

Aula virtuale Lo studente segua almeno 4 aule virtuali durante il corso. La scelta di quali aule virtuali seguire è lasciata allo studente.

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 17/S1 Operazioni sulle matrici 1

Sessione di Studio 17.1 Operazioni sulle matrici

Lezione 17. Operazioni sulle matrici

17–17

Sessione di Studio 17.1 Esercizio 17.1. Calcola il prodotto righe per colonne       2 −1 −1 2 2 1 · · . −3 2 3 −1 3 2

Esempio 17.47.

Soluzione.           2 −1 −1 2 2 1 2 · (−1) − 1 · 3 2 · 2 − 1 · (−1) 2 1 · · = · = −3 2 3 −1 3 2 −3 · (−1) + 2 · 3 −3 · 2 + 2 · (−1) 3 2         −5 5 2 1 −5 · 2 + 5 · 3 −5 · 1 + 5 · 2 5 5 = · = = . 9 −8 3 2 9·2−8·3 9·1−8·2 −6 −7 

   2 −1 2 1 Esercizio 17.2. Controlla che è l’inversa della matrice . Esempio 17.47. −3 2 3 2

Soluzione. Abbiamo        2 1 2 −1 2 · 2 + 1 · (−3) 2 · (−1) + 1 · 2 1 · = = 3 2 −3 2 3 · 2 + 2 · (−3) 3 · (−1) + 2 · 2 0 e        2 −1 2 1 2·2−1·3 2·1−1·2 1 · = = −3 2 3 2 −3 · 2 + 2 · 3 −3 · 1 + 2 · 2 0

 0 1  0 . 1

Esercizio 17.3. Come puoi trovare una matrice C tale che     −1 2 5 5 −1 C · ·C = ? 3 −1 −6 −7

Esempio 17.47.

◮ Soluzione. Moltiplichiamo perC entrambi    i membri dell’equazione,  −1 2 5 5 c c ottenendo ·C = C · . Scrivendo C = 11 12 , 3 −1 −6 −7 c21 c22 otteniamo l’equazione         c11 c12 c11 c12 5 5 −1 2 , · = · −6 −7 3 −1 c21 c22 c21 c22

◮ Visto che non siamo in un campo, possiamo avere aggiunto soluzioni, quindi alla fine dobbiamo controllare che la matrice che troviamo è una soluzione dell’equazione iniziale.

ossia l’equazione     −c11 + 2c21 −c12 + 2c22 5c11 − 6c12 5c11 − 7c12 = . 3c11 − c21 3c12 − c22 5c21 − 6c22 5c21 − 7c22

L’ultima equazione è equivalente al sistema  −c11 + 2c21 = 5c11 − 6c12    −c12 + 2c22 = 5c11 − 7c12 , 3c − c21 = 5c21 − 6c22    11 3c12 − c22 = 5c21 − 7c22     2α − 2β 53 α − 2β c11 c12 = le cui soluzioni danno le matrici α β c21 c22 con α,β ∈ R. Scegliendo (α, β) = (3, 2), otteniamo la matrice C =  2 1 descritta sopra: per il controllo che questa C è una soluzione 3 2 dell’equazione si veda gli Esercizi 17.2 e 17.1. ◮ c 2014 Gennaro Amendola

Versione 1.0

◮ Il lettore può scegliere una coppia (α, β) qualsiasi, ma deve controllare che la matrice trovata è una soluzione dell’equazione iniziale. Per esempio, la coppia  (α, β) = 0 0 (0, 0) porta alla matrice C = , che 0 0 non è invertibile e quindi non può essere soluzione dell’equazione iniziale.

Lezione 17. Operazioni sulle matrici

Esercizio 17.4. Data A =



17–18

 1 1 , trova An per ogni n ∈ N. 0 2

Soluzione. Abbiamo          1 0 1 1 1 1 1 1 1 3 0 1 2 A = , A =A= , A = = , 0 1 0 2 0 2 0 2 0 4           1 3 1 1 1 7 1 7 1 1 1 15 3 2 4 3 A =A ·A = = , A =A ·A= = . 0 4 0 2 0 8 0 8 0 2 0 16   1 2n − 1 n Ipotiziamo che A = , quindi cerchiamo di dimostrarlo per 0 2n induzione su n.     1 0 1 20 − 1 0 Caso base. Per n = 0 abbiamo A = = . 0 1 0 20   1 2n − 1 Passo induttivo. Supponiamo che An = , e dimostriamo 0 2n   1 2n+1 − 1 che An+1 = . Abbiamo 0 2n+1        1 1 1 2n − 1 1·1+1·0 1 · (2n − 1) + 2n 1 2n+1 − 1 n+1 n A = A·A = · = = . 0 2 0 2n 0 · 1 + 2 · 0 0 · (2n − 1) + 2 · 2n 0 2n+1

La dimostrazione è completa.



 −4 −3 Esercizio 17.5. Sapendo che la matrice M = è diagona6 5 lizzabile perché èsimile a D = Diag (−1, 2) tramite  la matrice  diago2 1 1 −1 nalizzante P = , la cui inversa è P −1 = , calcola 1 1 −1 2 M 7. Soluzione. Per l’Osservazione 17.50 abbiamo          2 1 1 −1 2 1 1 −1 M 7 = P · D 7 · P −1 = · (Diag (−1, 2))7 · = · Diag −17 , 27 · = 1 1 −1 2 1 1 −1 2           2 1 1 −1 2 1 −1 1 −130 258 = · Diag (−1, 128) · = · = . 1 1 −1 2 1 1 −128 256 −129 257

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 17/S2 Operazioni sulle matrici 1

Sessione di Studio 17.2 Operazioni sulle matrici

Lezione 17. Operazioni sulle matrici

17–19

Sessione di Studio 17.2 Esercizio 17.6. Calcola le seguenti addizioni e moltiplicazioni per scalare:     2 3 −1 1 3 6 1. + . 0 1 −4 4 0 −2     4 2+i 6 −1 2 3 − i −3i 0 2. −2 + 3i 0 0 3 − 5i + 0 1 −1 2i. −3 1 0 2 3 4 −1 1   −1 0 1 3. (−2) · −2 3 4. 3 32 0   1 0 −i 4. (2 − i) · . 2 + i 2 − i 3 − 2i

Esercizio 17.7. Calcola il risultato delle seguenti combinazioni lineari:     1 0 2 2 3 1 −3 2 −1 −3 0 0     1. 3   0 0 1  − 2  2 0 1 . −1 4 3 3 2 −5       i −3 0 −i 2−i 0 2. 2 − +i . −1 1 − i 2 + 3i 1 3 − 4i i   3 1 Esercizio 17.8. Scrivi la matrice −1 2 come il risultato di una 0 4 combinazione lineare della base E3,2 di R3,2 . Esercizio 17.9. Dimostra che l’insieme ordinato di matrici         2 0 0 2 2 1 −1 0 , , , 1 −1 0 1 0 0 1 0

è una base di R2,2 .

Esercizio 17.10. Trova la dimensione dei seguenti spazi vettoriali: 1. K2,3 .  2. A ∈ K2,3 A1 = 0, A3 = 0 . 1

2

Esercizio 17.11. Tra le seguenti moltiplicazioni righe per colonne, calcola quelli che possono essere fatti.     1 2 0 2 0 −1 2 3  · −1 1. 1.  0 0 4 3 1 −1 −3 0     2 −4 1 0 2 0 0 0   2. 1 −1 ·  −1 1 0. 3 6 0 −3 6   3   3. 2 −1 0 · −2. 4 c 2014 Gennaro Amendola

Versione 1.0

Lezione 17. Operazioni sulle matrici

4. 5. 6. 7. 8. 9.

17–20



 3  −2 · 2 −1 0 . 4     1 + i −1 − i 2 i −1 · . −i 0 1 − 2i 0 i     3 −1 2 0 · . 4 5 0 −1    −1 4 · 2 0 . 5 −7  2 2 1 . −1 21  3 2 3 . −2 2



 2 −3 4 Esercizio 17.12. Calcola il prodotto righe per colonne di A = 0 −1 5 1 0 3   3 e B =  0 . Scrivilo come il risultato di una combinazione lineare delle −1 colonne di A. Quali delle seguenti matrici commutano?      1 3 2 −1 1 0    0 −3 , A2 = 5 0 , A3 = , 1 2 2 5 −2 3     3 0 −1  −2 1   A4 = −1 1 2 , A5 = −2 1 1 , A6 = , 0 1 2 0 0       1 0 0 0 0 0   A7 = A9 = , A8 = 0 1 0 , . 0 0 0 0 0 1   0 1 , trova An per tutti gli n ∈ N. Esercizio 17.14. Data A = 1 0   1 4 è l’inversa della matrice Esercizio 17.15. La matrice A = 1 3   −3 8 B= ? 1 −2     2 0 2 1 sono e M2 = Esercizio 17.16. Le matrici M1 = 0 2 0 2 coniugate?

Esercizio 17.13.  −3  A1 = 4 −4

c 2014 Gennaro Amendola

Versione 1.0

Lezione 17. Operazioni sulle matrici

17–21

    6 5 6 − 3i −1 3 6 5 Risultato dell’Esercizio 17.6. 1. . 2. −2 + 3i 1 −1 3 − 3i. 4 1 −6 −0 5 −1 3     2 0 −2 2−i 0 −1 − 2i 3.  4 −6 −8. 4. . 5 3 − 4i 4 − 7i −6 −3 0   −1 −6 4   −3 6 −3 1 + 4i −6 + i   Risultato dell’Esercizio 17.7. 1.  . 2. . −4 0 1 0 −2i −9 8 19

Risultato dell’Esercizio 17.8.               3 1 1 0 0 1 0 0 0 0 0 0 0 0 −1 2 = 3 0 0+0 0−1 0+2 0 1+0 0 0+4 0 0 . 0 4 0 0 0 0 0 0 0 0 1 0 0 1 Risultato dell’Esercizio 17.9. Dimostriamo che le quattro matrici sono linearmente indipendenti, considerando una combinazione lineare generica delle quattro matrici il cui risultato è zero e dimostrando che tutti i coefficienti sono nulli. Usiamo il Corollario 15.26 per concludere la dimostrazione.

Risultato dell’Esercizio 17.10. 1. dim(K2,3 ) = 6.   2. dim A ∈ K2,3 A11 = 0, A32 = 0 = 4. ◮   0 2 5  5 . 2. No. 3. 8 . Risultato dell’Esercizio 17.11. 1.  12 4  1 −3       6 −3 0 −1 + 3i −1 + i −2i 6 1   4. −4 2 0 . 5. . 6. . 7. No. −2i 1 i 8 −5 8 −4 0     5 −28 18 3 2 . 9. . 8. −12 −28 − 52 − 43   2 Risultato dell’Esercizio 17.12. AB = −5. 0         2 2 −3 4 −5 = 3 0 + 0 −1 − 5 . 0 1 0 3 Risultato dell’Esercizio 17.13. A1 e A5 . A6 e A7 .       n Risultato dell’Esercizio 17.14. A =     

◮ Applica l’algoritmo di completamento a una base (Algoritmo 15.14) all’insieme vuoto. All’inizio, potrebbe essere utile scrivere esplicitamente il generico elemento delle spazio vettoriale.

A1 e A8 . A5 e A8 . A3 e A7 . ! 0 1 1 0! 1 0 0 1

if n is odd . if n is even

Risultato dell’Esercizio 17.15. No.

Risultato dell’Esercizio 17.16. No. ◮

c 2014 Gennaro Amendola

◮ Vedi Esercizio 17.3. Controlla se le matrici trovate sono invertibili.

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 17/S3 Operazioni sulle matrici 1

Sessione di Studio 17.3 Operazioni sulle matrici

Lezione 17. Operazioni sulle matrici

17–22

Sessione di Studio 17.3 Letture supplementari possono essere le seguenti: • http://it.wikipedia.org/wiki/Matrice#Algebra_delle_matrici

• http://it.wikipedia.org/wiki/Moltiplicazione_di_matrici

• http://it.wikipedia.org/wiki/Matrice_invertibile

• http://it.wikipedia.org/wiki/Similitudine_fra_matrici

• http://it.wikipedia.org/wiki/Diagonalizzabilit%E0

c 2014 Gennaro Amendola

Versione 1.0

Lezione 17. Operazioni sulle matrici

17–23

Sessione di Studio 17.Quiz Seguirà un quiz, le cui domande sono le seguenti, per controllare il livello di approfondimento degli argomenti studiati: assicurati di avere a disposizione queste domande quando farai il quiz. L’esito del quiz non sarà tenuto in considerazione per l’esame. Dopo aver svolto il quiz ricontrolla le domande, specialmente quelle a cui non hai risposto in maniera corretta. Per ognuna delle seguenti domande, la risposta esatta è una sola. Domanda 17.1. Quale è il risultato dell’addizione     1 2 0 4 −3 0 + ? −2 3 1 5 2 0   5 −1 0 (a) . 3 5 1   5 5 0 (b) . 7 5 1   −5 1 0 . (c) −3 −5 −1   4 −6 0 . (d) −10 6 0 Domanda 17.2. Quale è il risultato della moltiplicazione per scalare   2 −1 3 0 4 (−2) · 1 −4 2 0 −2? 0 3 0 0 −1   4 −2 6 0 8 (a) 2 −8 4 0 −4. 0 6 0 0 −2   −4 2 −6 0 −8 (b) −2 8 −4 0 −4. 0 −6 0 0 −2   −4 2 −6 0 −8 (c) −2 8 −4 0 4 . 0 −6 0 0 2   −4 2 −6 0 −8 (d)  1 −4 2 0 −2. 0 3 0 0 −1

c 2014 Gennaro Amendola

Versione 1.0

Lezione 17. Operazioni sulle matrici

17–24

Domanda è il della  17.3.  Quale   risultato   combinazione lineare delle 1 2 2 −9 3 −1 matrici −2 0, 0 7 , −4 0  con coefficienti 2, 0, −3? 0 3 4 5 1 2   11 1 (a) −16 0 . 3 12   −7 7 (b)  8 0. −3 0   −5 −2 7 . (c)  8 1 5   4 1 (d) −6 0. 1 5  Domanda 17.4. Quali sono le coordinate della matrice      1 0 0 0 0 1 0 0 di R2,2 ? rispetto alla base 0 0 1 0 0 1 0 1 (a) 0, 1, −2, 5.

0 1 −2 5



(b) 5, 1, −2, 0. (c) 0, 1, −2, 4. (d) 4, 1, −2, 0. Domanda 17.5. Date due matrici A e B su K, in quali dei seguenti casi non è possibile fare il prodotto righe per colonne tra A e B? (a) A 2 × 3, e B 3 × 4. (b) A 2 × 3, e B 4 × 2. (c) A 2 × 3, e B 3 × 2. (d) A 3 × 2, e B 2 × 4.

c 2014 Gennaro Amendola

Versione 1.0

Lezione 17. Operazioni sulle matrici

17–25

Domanda 17.6. Quanto vale il prodotto righe per colonne     3 4 1 0 −2 1  0 ? · 5 2 1 −1 3 1 −2 −1   0 −8 −1 (a) . 5 −2 0   0 4 (b) −10 −2. 1 −6   −9 −6 1 (c) . 1 −4 2   −9 −6 −1 (d) . 1 −4 −2 Domanda  17.7.  Quale delle seguenti matrici non commuta con la 2 0 matrice ? 2 −1   1 0 (a) . 0 1   4 0 . (b) 1 1   4 0 . (c) 2 1   2 0 . (d) 2 −1  3 1 −2 Domanda 17.8. Quanto vale ? 1 0   1 0 . (a) 0 1   1 −2 (b) . 1 0   −3 2 (c) . −1 −2   −1 −2 (d) . 1 −2

c 2014 Gennaro Amendola

Versione 1.0

Lezione 17. Operazioni sulle matrici

17–26



 1 2 0 Domanda 17.9. Quale è la matrice inversa della matrice 0 1 −1? 0 0 −1   1 0 0 (a) 0 1 0. 0 0 1   1 −2 2 (b) 0 1 −1. 0 0 −1   0 0 0 (c) 0 0 0. 0 0 0   1 −2 −2 (d) 0 1 −1. 0 0 −1   1 1 Domanda 17.10. Quale è la matrice simile alla matrice tramite 0 1   0 −2 ? la matrice 1 0   1 1 . (a) 0 1   0 1 . (b) − 21 − 12   1 0 (c) . − 12 1   1 0 . (d) 1 1

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 18 Determinante 1

Lezione 18 Determinante

Lezione 18

Determinante In questa lezione definiremo il determinante di una matrice quadrata. Esso ha molte interpretazioni e applicazioni.

18.1

Determinante

Il determinante è definito solo per le matrici quadrate, quindi in questa lezione ci occuperemo solo di matrici quadrate.

Permutazioni Prima di occuparci del determinante abbiamo bisogno di introdurre due semplici nozioni. Definizione 18.1. Sia n > 1 un numero intero fissato. Una permutazione (di n elementi) è una funzione bigettiva dall’insieme dei primi n numeri interi positivi in sé, σ : {1, 2, . . . , n} −→ {1, 2, . . . , n},

Permutazione

 17→·  27→·

ed è indicata con  

 .  ..

17→σ(1)

n7→·

 27→σ(2)   .. . . n7→σ(n)

L’insieme di tutte le permutazioni di n elementi è indicato con Pn .



Osservazione 18.2. La funzione identità, id{1,2,...,n} : {1, 2, . . . , n} −→ {1, 2, . . . , n}, è una permutazione: id{1,2,...,n} (i) = i

for each i ∈ {1, 2, . . . , n}.

Se non ci sono ambiguità, essa sarà indicata semplicemente con id. ◮

◮ Notazione 6.4.

Esempio 18.3. Consideriamo qualche caso per l’intero n. Caso n = 1. Abbiamo una sola permutazione: id = [ 17→1 ]. ◮

◮ C‘è una sola funzione da {1} in sé.

1 17→2 ◮ Caso n = 2. Abbiamo due permutazioni: id = [ 1727→ →2 ] e [ 27→1 ]. ◮

◮ ◮ I due elementi di {1, 2} possono essere lasciati fissi o scambiati.

Caso n = 3. Abbiamo tre tipi di permutazioni, a seconda del numero di elementi lasciati fissi: ◮ h 17→1 i • id = 27→2 , 37→3

c 2014 Gennaro Amendola

Versione 1.0

◮ Stiamo scambiando tra loro gli elementi dell’insieme {1, 2, 3}.

Lezione 18. Determinante

18–2

h 17→1 i h 17→3 i h 17→2 i 27→3 , 27→2 , 27→1 , 2 1 h 3717→ i h 3717→ i 37→3 →2 →3 • 27→3 , 27→1 . •

37→1

37→2

 17→1   17→1   17→2   17→2  2 27→3 27→3 27→1 Caso n = 4. Alcuni esempi sono id = 2737→ →3 , 37→2 , 37→4 , 37→4 . 47→4

47→4

47→1

Definizione 18.5. La segnatura, o segno, di una permutazione σ ∈ Pn è il numero Y σ(j) − σ(i) sgn(σ) := . (18.1) j−i 16i 1. Dimostriamo l’enunciato sulle righe. Cominciamo dimostrando che se det(A) 6= 0, allora le righe di A sono linearmente indipendenti. Supponiamo per assurdo che  lerighe di A siano linearmente dipendenti. A1  A2    Allora, una riga di A =  .  è il risultato di una combinazione lineare  .. 

An delle altre n − 1 righe di A, ◮ ossia

Ai = λ1 A1 +λ2 A2 +· · ·+λ(i−1) A(i−1) +λ(i+1) A(i+1) +· · ·+λn An . (20.1)

Applichiamo n − 1 operazioni elementari sulle righe di tipo III, sempre alla i-esima riga: in primo luogo sostituiamo la i-esima riga con la riga stessa meno λ1 volte la prima riga, in secondo luogo sostituiamo la iesima riga con la riga stessa meno λ2 volte la seconda riga, e così via c 2014 Gennaro Amendola

Versione 1.0

◮ Proposizione 13.7.

Lezione 20. Rango di una matrice

20–2

sostituendo la i-esima riga con la riga stessa meno λk volte la k-esima riga (con k 6= i), fino a sostituire la i-esima riga con la riga stessa meno λn volte l’ultima riga. Alla fine, la i-esima riga è diventata nulla. ◮ ◮ Il determinante della Il determinante della matrice ottenuta è nullo. ◮ ◮ matrice ottenuta è uguale al determinante di A, ◮ ◮ che quindi è anch’esso nullo. Abbiamo ottenuto una contraddizione all’ipotesi det(A) 6= 0, quindi abbiamo dimostrato una implicazione. Dimostriamo l’altra implicazione, ossia se le righe di A sono linearmente indipendenti, allora det(A) 6= 0. Applichiamo il metodo di eliminazione di Gauss ◮ alla matrice A e chiamiamo B la matrice a scalini ottenuta. Visto che il determinante di A è diverso da 0, ci sono n ◮ ◮, quindi applicando il metodo di eliminazione di Gauss-Jordan ◮ pivot ◮ ◮ ◮ alla matrice quadrata B otteniamo la matrice identità . Le righe della matrice identità formano la base canonica dello spazio vettoriale K1,n , e ciascuna di esse è ottenuta sommando ripetutamente righe e multipli di righe, a partire dalle righe A1 , A2 , . . . , An of A. Quindi, alla fine, abbiamo che ogni vettore della base canonica di K1,n appartiene a Span (A1 , A2 , . . . , An ), quindi abbiamo K1,n ⊂ Span (A1 , A2 , . . . , An ) ◮, e quindi Span (A1 , A2 , . . . , An ) = K1,n . Le righe di A sono quindi n generatori dello spazio vettoriale K1,n che ha dimensione n, quindi esse sono linearmente indipendenti. ◮ Abbiamo dimostrato l’enunciato sulle righe. Per dimostrare l’enunciato sulle colonne usiamo la trasposizione. Le colonne di A sono linearmente indipendenti se e solo se le righe di t A sono linearmente indipendenti.  Abbiamo già dimostrato che questo  è equivat t lente al fatto che det A 6= 0. Abbiamo che det(A) = det A ◮, e quindi le colonne di A sono linearmente indipendenti se e solo se det(A) 6= 0. Abbiamo completato la dimostrazione.

◮ Per l’uguaglianza (20.1). ◮ ◮ Proposizione 18.15. ◮ ◮ Proposizione 19.7. ◮

◮ Algoritmo 16.43. ◮ ◮ Osservazione 19.14. ◮ ◮ ◮ Algoritmo 16.56. ◮ Osservazione 16.59.

◮ Proposizione 12.22.

◮ Corollario 15.26.

◮ Proposizione 19.1.

Corollario 20.2. Sia A una matrice quadrata. Le righe di A sono linearmente indipendenti se e solo se le colonne sono linearmente indipendenti. Dimostrazione. Sia il fatto che le righe di A sono linearmente indipendenti che il fatto che le colonne di A sono linearmente indipendenti sono equivalenti alla condizione det(A) 6= 0, ◮ e quindi sono equivalenti tra ◮ Teorema 20.1. loro.       −1 1 0      Esempio 20.3. 1. Le tre colonne 2 , 3 e −1 sono linear0 1 2   −1 1 0 mente indipendenti perché sono le colonne della matrice  2 3 −1, 0 1 2 ◮ Esempio 18.13-3. il cui determinante è −11 ◮ e quindi diverso da 0.    Anche le tre righe −1 1 0 , 2 3 −1 e −1 1 0 sono   −1 1 0 linearmente indipendenti perché det  2 3 −1 = −11 6= 0. 0 1 2 c 2014 Gennaro Amendola

Versione 1.0

Lezione 20. Rango di una matrice

20–3

    2 3 2. Le due colonne e sono linearmente dipendenti perché 4 6   2 3 sono le colonne della matrice , il cui determinante è 0 ◮. 4 6   Anche le due righe 2 3 e 4 6 sono linearmente dipendenti   2 3 perché det = 0. 4 6

20.2

◮ Esercizio 18.10-2.

Rango di una matrice

In questa sezione introdurremo il rango di una matrice e vedremo come esso è legato alla (in)dipendenza lineare dei vettori colonna. In tutta questa sezione denoteremo con A una generica matrice n × m su un campo K. Definizione 20.4. Il massimo numero di colonne linearmente indipendenti di una matrice n × m matrice A è detto rango di A, ed è indicato con

Rango di una matrice rank

rank(A). Osservazione 20.5. In alcuni libri di testo, il rango di A è indicato anche con i simboli rk(A), rg(A), o analoghi. Notazione 20.6. Come per il determinante, ◮ se la matrice A = (aij )i=1,...,n◮ Notazione 18.10. j=1,...,m

è scritta esplicitamente, le parentesi di rank(A) non sono scritte per evitare di scrivere due coppie di parentesi:   a11 a12 · · · a1m  a21 a22 · · · a2m    rank  . .. ..  . ..  .. . . .  an1 an2 · · · anm

Osservazione 20.7. Abbiamo che A = 0n,m se e solo se rank(A) = 0. Infatti, A = 0n,m se e solo tutte le colonne sono nulle, ossia se e solo se il rango di A è 0. Se A = In , allora rank(A) = n. Infatti, le n colonne di In sono i vettori della base canonica di Kn,1 , quindi sono linearmente indipendenti.   2 −1 1 Esempio 20.8. 1. Il rango della matrice è 2 perché il 3 0 1 massimo numero di colonne linearmente indipendenti della matrice è 2, infatti       2 −1 1 • i tre vettori colonna , e sono linearmente 3 0 1 dipendenti, ◮ e     2 1 • i due vettori colonna e sono linearmente indipen3 1 denti. ◮

c 2014 Gennaro Amendola

Versione 1.0

◮ Esempio 13.5-2.

◮ Perché det



2 3

 1 = −1 6= 0. 1

Lezione 20. Rango di una matrice

20–4



 3 0 2 4 2. Il rango della matrice  6 0 4 8  è 1 perché il massi−3 0 −2 −4 mo numero di colonne linearmente indipendenti della matrice è 1, infatti   3 • tutti i vettori colonna sono multipli del primo,  6 , quindi −3 essi (e tutti i loro sottoinsiemi con almeno due elementi) sono linearmente dipendenti, e • il primo vettore colonna è linearmente indipendente. ◮

◮ È non nullo.

Proposizione 20.9. Il rango di A è uguale alla dimensione del sottospazio vettoriale di Kn,1 generato dalle colonne di A.

Dimostrazione. Chiamiamo W il sottospazio vettoriale di Kn,1 generato dalle colonne di A. Consideriamo rank(A) colonne linearmente indipendenti di A. Per la definizione di rango, comunque giustapponiamo una colonna ad essi otteniamo rank(A) + 1 colonne linearmente dipendenti, quindi la colonna giustapposta appartiene al sottospazio vettoriale di W generato dalle rank(A) colonne considerate. ◮ Abbiamo che queste rank(A) colonne generano W , perché tutte le colonne di A appartengono al sottospazio vettoriale generato dalle rank(A) colonne. ◮ Quindi, esse formano una base di W , e abbiamo dim(W ) = rank(A).

◮ Proposizione 13.25. ◮ Proposizione 12.22.

Osservazione 20.10. Visto che la dimensione del sottospazio vettoriale di Kn,1 generato dalle colonne di A è al più n, abbiamo rank(A) 6 n. Inoltre, visto che le colonne di A sono m, abbiamo rank(A) 6 m. Definizione 20.11. Un minore (di ordine k) di una matrice A è il determinante di una sottomatrice quadrata di ordine k di A. Sia detk (B) un minore di A di ordine k, dove B è la k×k sottomatrice di A di cui si calcola il determinante, corrispondente a k righe e k colonne di A. Considerando anche un’altra riga e un’altra colonna, si ottiene una sottomatrice quadrata di A di ordine k + 1 il cui determinante è detto orlato di detr (B).   0 1 1  3 −1 −1 . Esempio 20.12. Consideriamo la matrice 3 × 4  −1 5 9 0 0 1 • Il minore di ordine 1 che corrisponde alla terza riga e alla seconda  ◮ colonna è det 5 = 5. • Il minore di ordine 2 che corrisponde  alla primae alla seconda riga, 1 1 ◮ Esso non è = 0. ◮ e alla seconda e terza colonna è det −1 −1  un orlato di det 5 , perché non corrisponde alla terza riga.

• Il minore di ordine 2 che corrisponde  allaprima e alla terza riga, e 1 1 alla seconda e terza colonna è det = 4. ◮ Esso è un orlato 5 9  di det 5 , perché è ottenuto considerando la stessa riga e la stessa

c 2014 Gennaro Amendola

Versione 1.0

Minore Orlato Rigorosamente parlando, il minore è un elemento di K, ma a volte dobbiamo preoccuparci della sottomatrice di cui esso è il determinante.



0  3  ◮ −1 0  0  3 ◮ ◮ −1 0

1 −1 5 0

0  3  ◮ −1 0

1 −1 5 0



1 −1 5 0

 1 −1 . 9  1  1 −1 . 9  1

 1 −1 . 9  1

Lezione 20. Rango di una matrice

20–5

 colonna che corrispondono a det 5 (la terza riga e la seconda colonna), e considerando un’altra riga e un’altra colonna (la prima riga e la seconda colonna). • Il minore di ordine 3 che corrisponde alla prima,  alla terza e alla 0 1 1 quarta riga, e a tutte le colonne è det −1 5 9 = 1. ◮ Esso è un 0 0 1   1 1 orlato di det , perché è ottenuto considerando le stesse righe 5 9   1 1 (la prima e la e le stesse colonne che corrispondono a det 5 9 terza riga, e la seconda e la terza colonna), e considerando un’altra riga e un’altra colonna (la quarta riga e la prima colonna). • Il minore di ordine 3 che corrisponde alla  prima, allaseconda e alla 0 1 1  quarta riga, e a tutte le colonne è det 3 −1 −1 = −3. ◮ Esso 0 0 1   1 1 non è un orlato di det , perché non corrisponde alla terza 5 9 riga.



0  3  ◮ −1 0



0  3  ◮ −1 0

1 −1 5 0

 1 −1 . 9  1

1 −1 5 0

 1 −1 . 9  1

Osservazione 20.13. Un minore detr (B) di A di ordine k ha (n − k) · (m − k) orlati. Infatti, per ottenere un orlato, dobbiamo considerare una riga in più e una colonna in più; per la riga abbiamo n − k possibilità, e per la colonna m − k. Osservazione 20.14. Se detk (B) è un minore di A, esso è anche un minore di ogni sottomatrice di A il cui determinante è un orlato di B.

Lemma 20.15. Se A ha un minore non nullo di ordine r, vale la disuguaglianza rank(A) > r. Non daremo la dimostrazione di questa proposizione, anche se non è difficile. Teorema 20.16 (Kronecker). Se A non è la matrice nulla, il rango di A coincide con l’ordine r di un minore detr (B) di A tale che • detr (B) 6= 0, e • detr+1 (C) = 0 per ogni orlato detr+1 (C) di detr (B).

Non daremo la dimostrazione di questo teorema, perché è abbastanza lunga. Osservazione 20.17. Se il minore det(B) del Teorema di Kronecker ha ordine n oppure m, non può avere orlati, perché non possiamo considerare un’altra riga e un’altra colonna. Quindi, la seconda condizione del teorema è ovviamente soddisfatta. Osservazione 20.18. Nell’enunciato del Teorema di Kronecker il minore det(B) di ordine r non è specificato. Quindi, per trovare il rango di A è sufficiente trovare un qualsiasi minore non nullo det(B) tale che tutti i suoi orlati siano nulli. Esempio 20.19. Consideriamo le matrici dell’Esempio 20.8. c 2014 Gennaro Amendola

Versione 1.0

Teorema di Kronecker

Lezione 20. Rango di una matrice

20–6



 2 −1 1 1. Il rango della matrice è 2 perché 3 0 1   2 1 • il minore det è −1, non nullo, e 3 1 • non ha orlati.   3 0 2 4 2. Il rango della matrice  6 0 4 8  è 1 perché −3 0 −2 −4  • il minore det 3 è 3, non nullo, e • tutti i suoi orlati sono nulli, infatti       3 0 3 2 3 4 det = 0, det = 0, det = 0, 6 0 6 4 6 8       3 0 3 2 3 4 det = 0, det = 0, det = 0. −3 0 −3 −2 −3 −4 Per trovare un minore det(B) con il Teorema di Kronecker possiamo usare un semplice algoritmo. Algoritmo 20.20. Sia A una matrice n × m. Passo 1. Se A è nulla, il rango di A è 0 ◮, e l’algoritmo termina. Altrimenti, esiste un’entrata non nulla di A. Si consideri il minore det1 (B1 ) di ordine 1 corrispondente alla riga e alla colonna di questa entrata. Visto che det1 (B) 6= 0, vale la disuguaglianza rank(A) > 1. ◮ Si vada al Passo 2. Passo 2. Si controllino gli orlati di det1 (B1 ), che hanno ordine 2: ce ne sono (n − 1) · (m − 1). ◮ Se tutti orlati di det1 (B1 ) sono ◮ Se invece vienulli, il rango di A è 1, e l’algoritmo termina. ◮ ne trovato un orlato non nullo det2 (B2 ) di det1 (B1 ), vale la ◮ disuguaglianza rank(A) > 2. ◮ ◮ Si vada al Passo 3. Il passo generico i > 2 opera come segue: Step i. Si controllino gli orlati di deti−1 (Bi−1 ), che hanno ordine i: ce ne sono (n − i + 1) · (m − i + 1). ◮ Se tutti orlati di deti−1 (Bi−1 ) ◮ Se invece sono nulli, il rango di A è i−1, e l’algoritmo termina. ◮ viene trovato un orlato non nullo deti (Bi ) di deti−1 (Bi−1 ), vale ◮ la disuguaglianza rank(A) > i. ◮ ◮ Si vada al Passo (i + 1). A meno che l’algoritmo non sia terminato prima, esso termina al più quando il minore deti−1 (Bi−1 ) non può essere orlato, ossia quando i − 1 è uguale al minimo tra n e m. Osservazione 20.21. Ad ogni passo dell’algoritmo precedente, dobbiamo controllare tutti gli orlati solo se non ne troviamo nessuno non nullo (e quindi l’algoritmo termina e abbiamo trovato il rango di A). Non appena troviamo un orlato non nullo, possiamo andare al passo successivo, cominciando a orlare il minore non nullo trovato. Esempio 20.22. Applichiamo il precedente algoritmo alla matrice 3 × 4   0 0 2 −2 2 6 1 7 . −1 −3 −1 −3 c 2014 Gennaro Amendola

Versione 1.0

◮ Osservazione 20.7.

◮ Lemma 20.15.

◮ Osservazione 20.13. ◮ ◮ Il minore det2 (B2 ) non è univocamente determinato: è sufficiente trovarne uno che sia diverso da 0, ma ce ne può essere più di uno. ◮ ◮ ◮ Lemma 20.15.

◮ Osservazione 20.13. ◮ ◮ Il minore deti (Bi ) non è univocamente determinato: è sufficiente trovarne uno che sia diverso da 0, ma ce ne può essere più di uno. ◮ ◮ Lemma 20.15. ◮

Lezione 20. Rango di una matrice

20–7

Passo 1. A è non nulla, quindi rank(A) > 1. Consideriamo il minore  non nullo det 2 = 2 di ordine 1 corrispondente alla seconda ◮ Scegliamo un’entrata non nulla. riga e alla prima colonna. ◮  Passo 2. Dobbiamo controllare gli orlati di det 2 , che hanno ordine 2: ce ne sono 3 · 2 = 6:   0 0 • det = 0, quindi dobbiamo continuare; 2 6   2 6 • det = 0, quindi dobbiamo continuare; −1 −3   0 2 ◮ Non dobbiamo controllare tutti gli orlati, • det = −4 6= 0, quindi rank(A) ≥ 2. ◮ 2 1 perché ne abbiamo trovato uno che è non   nullo. 0 2 , che hanno ordine Passo 3. Dobbiamo controllare gli orlati di det 2 1 3: ce ne sono 2 · 1 = 2:   0 0 2 • det  2 6 1  = 0, quindi dobbiamo continuare; −1 −3 −1   0 2 −2 • det  2 1 7  = 0, quindi l’algoritmo termina. −1 −1 −3   0 2 Infatti, non abbiamo trovato nessun orlato non nullo di det 2 1 e quindi abbiamo rank(A) = 2. Corollario 20.23. Il rango di una matrice è uguale al rango della sua trasposta. Dimostrazione. (∗∗) Se il rango della matrice A è 0, la matrice A è nulla, quindi anche t A è nulla e ha rango 0. Supponiamo allora che rank(A) > 0. Per il Teorema di Kronecker applicato alla matrice A, abbiamo che rank(A) = r, dove r è l’ordine di un minore non nullo detr (B) di A tale che tutti i sui orlati sono di  nulli. Dalla definizione t t B è un minore di A di ordine det matrice trasposta ◮ deduciamo che r  r, e che ogni orlato di detr t B è il trasposto di un orlato di detr (B). Abbiamo che il determinante di t B è non nullo e che ogni orlato di detr t B è nullo. ◮ Quindi, per ilTeorema di Kronecker  applicato alla matrice t A, abbiamo che rank t A = r, ossia rank t A = rank(A).

◮ Definizione 16.17

◮ Proposizione 19.1.

Proposizione 20.24. Il rango di A è uguale al massimo numero di righe di A linearmente indipendenti, e alla dimensione del sottospazio vettoriale di K1,n generato dalle righe di A.

Dimostrazione. Le righe di A sono le trasposte delle colonne della matri ce t A. Abbiamo che rank(A) = rank t A , ◮ che per definizione è uguale al massimo numero di colonne di t A linearmente indipendenti, ossia al massimo numero di righe di A linearmente indipendenti. La dimostrazione che il rango è uguale alla dimensione del sottospazio vettoriale di K1,n generato dalle righe di A è analoga a quella della Proposizione 20.9, quindi la lasciamo al lettore. c 2014 Gennaro Amendola

Versione 1.0

◮ Corollario 20.23.

Lezione 20. Rango di una matrice

20–8

Esempio 20.25. Consideriamo le matrici dell’Esempio 20.8.     2 −1 1 1. Le due righe della matrice , ossia 2 −1 1 e 3 0 1 , 3 0 1   2 −1 1 sono linearmente indipendenti, infatti il rango della matrice 3 0 1 è 2 e quindi il massimo numero di righe linearmente indipendenti della matrice è 2.   3 0 2 4 2. Il rango della matrice  6 0 4 8  è 1, quindi il massimo −3 0 −2 −4 numero di righe linearmente indipendenti della   matrice è 1, infatti le righe 6 0 4 8 e −3 0 −2 −4 sono multiple della prima, 3 0 2 4 . Osservazione 20.26. Le operazioni elementari sulle righe (di qualsiasi tipo) non cambiano il sottospazio vettoriale generato dalle righe di una matrice A (e quindi la sua dimensione). Non è difficile dimostrare questo fatto, ma lo lasciamo al lettore. Come conseguenza, possiamo usare il metodo di eliminazione di Gauss (o anche il metodo di eliminazione di Gauss con normalizzazione, o il metodo di eliminazione di Gauss-Jordan) per semplificare A per calcolare il rango di A. Inoltre, il rango di una matrice a scalini coincide con il numero dei pivot. La stessa idea funziona anche per le operazioni elementari sulle colonne.

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 20/S1 Rango di una matrice 1

Sessione di Studio 20.1

• Rango di una matrice

Lezione 20. Rango di una matrice

20–9

Sessione di Studio 20.1  1 2 Esercizio 20.1. Calcola il rango della matrice A =  0 5

0 3 0 6

 2 3 1 1 . 0 −3 4 5

Soluzione. Applichiamo l’Algoritmo 20.20.  Passo 1. A è non nulla, quindi rank(A) > 1. Il minore det 1 = 1 di ordine 1 corrispondente alla prima riga e alla prima colonna è non nullo.   1 0 Passo 2. L’orlato det = 3 è non nullo, quindi rank(A) > 2. 2 3   1 0 2 Passo 3. L’orlato det 2 3 1 = 0 è nullo, quindi continuiamo. L’or0 0 0   1 0 3 lato det 2 3 1  = −9 è non nullo, quindi rank(A) > 0 0 −3 3. Passo 4. C’è solo un orlato di ordine 4, ◮ ossia   1 0 2 3 2 3 1 1   det  0 0 0 −3 = 0, 5 6 4 5

◮ In realtà, c’è solo un minore di ordine 4 in una 4 × 4 matrice.

quindi il rango di A non è 4 e quindi abbiamo rank(A) = 3. 

1 0 Esercizio 20.2. Calcola il rango della matrice A =  1 0

0 1 0 2

2 3 1 0 2 5 2 −2

 3 1 . 4 1

Soluzione. Applichiamo ilmetodo di eliminazione di Gauss ad A ot 1 0 2 3 3 0 1 1 0 1  tenendo la matrice A′ =  0 0 0 2 1. Ci sono 3 pivot, quindi 0 0 0 0 0 ◮ abbiamo rank(A) = 3. ◮ ◮

Esercizio 20.3. Calcola il rango della matrice A =



1 2 0 1 . −2 −4 0 −2 −2

Soluzione. Il rango di A è 1 perché il massimo numero di righe linearmente indipendenti della matrice è 1, infatti   • le due righe 1 2 0 1 1 e −2 −4 0 −2 −2 sono linearmente dipendenti, quindi rank(A) < 2, e • A non è nulla, quindi rank(A) > 1.

c 2014 Gennaro Amendola

◮ Osservazione 20.26. ◮ ◮ Possiamo anche applicare il Teorema di Kronecker (Teorema 20.16), notando che il rango di A′ è 3, per via, ad esempio, del suo  minore non  nullo di ordine massimo 1 0 3 det 0 1 0. 0 0 2 1

Versione 1.0

Lezione 20. Rango di una matrice

20–10 

 1 −1  Esercizio 20.4. I vettori colonna   0 , 1 linearmente indipendenti?

   1 −1 −1 1   and   sono 1 0 2 3 



 1 −1 1 −1 1 −1 . Soluzione. La matrice che ha i tre vettori come colonne è  0 0 1 1 2 3   1 −1 1 Il suo rango è 3 perché uno dei suoi minori di ordine 3, det 0 0 1 = 1 2 3 −3, non è nullo. Esercizio 20.5. Trova la dimensione del sottospazio vettoriale         −1 4 2 1         3 , 1 , 7 , 2  Span −1 −2 0 −1

di R3 .

◮ Proposizione 20.9. Soluzione. Abbiamo ◮            1 2 4 −1 −1 4 2 1 2 . dim Span  3  , 1 ,  7  ,  2  = rank  3 1 7 −1 0 −2 −1 −1 −2 0 −1

Il rango della ◮ Kronecker:  1 • det 3

matrice è 2, infatti può essere calcolato con il Teorema di 2 1



◮ Teorema 20.16.

= −5 6= 0, e 

   1 2 4 1 2 −1 • i due orlati sono det  3 1 7  = 0 e det  3 1 2  = 0. −1 0 −2 −1 0 −1 Quindi, la dimensione è 2. Esercizio 20.6. Calcola il rango delle seguenti matrici, un parametro.    2 1 0 1 0 1 1 −1   a 2 −1 1 1. Aa =  0 a − 1 −4. 2. Ba =  0 1 a 3 0 3 2 −1 −1 Quando sono uguali i ranghi?

che dipende da  2 a . 5 −1

1. Il rango di A a è al più  3 perché Aa ha 3 colonne. 2 1 Il minore di ordine 2 det = −3 non è nullo, quindi il 1 −1   2 1 0 rango di Aa è sempre almeno 2. L’orlato det 1 −1 a= 0 a − 1 −4 2 −2a + 2a + 12 è zero per a = 2 e a = 3.

Soluzione.

c 2014 Gennaro Amendola

Versione 1.0

Lezione 20. Rango di una matrice

20–11

• Per a 6= 2, −3 il rango di Aa è 3.    2 1 0 2 1 −1 2     • Per a = 2 abbiamo A2 =  ; l’altro orlato det 1 0 1 −4 3 3 0 3 −3 non è nullo, quindi il rango di A2 è 3.    2 1 0 2 1 −1 3     • Per a = 3 we have A3 =  ; l’altro orlato det 1 0 2 −4 3 3 0 3 0 è nullo, quindi il rango di A3 è 2. ◮ 2. Il rango di Ba è al più 4 perché Ba ha 4 righe e 4 colonne. L’unico minore di ordine 4 det (B4 ) = a2 − 6a + 9 è zero soltanto per a = 3.

• Per a 6= 3 il rango di Ba è 4.   1 0 1 2 −1 1 2 3 ; la terza riga • Per a = 3 abbiamo B3 =  0 1 3 5 2 −1 −1 −1 è la somma delle prime due, la quarta è la differenza delle prime due, e le prime due righe sono linearmente indipendenti, quindi il massimo numero di righe linearmente indipendenti è 2 ◮ e quindi il rango di B3 è 2. I ranghi sono uguali per a = 3.

c 2014 Gennaro Amendola

Versione 1.0

 1 0 −1 2 = 0 3  1 0 −1 3 = 0 3

◮ Ci sono solo due orlati.

Quando abbiamo parametri può essere utile cominciare con i minori più grandi, cosicché per i valori dei parametri per cui essi sono non zero il rango è massimo.

◮ Potremmo anche calcolare i minori di ordine 3.

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 20/S2 Rango di una matrice 1

Sessione di Studio 20.2

Rango di una matrice

Lezione 20. Rango di una matrice

20–12

Sessione di Studio 20.2 Esercizio 20.7. Calcola il rango delle seguenti matrici con di Kronecker ◮.    1     1 0 2 −1 0 0 1 0 0 0 1. . 2. . 3. 2 1 0 1 . 4.  0 2 −1 0 0 0 0 1 −4 3 0   1 0 −3   2 2 1 1 + 2i 0 2 + 4i     1 5.  1 3 . −1 −2 −4. 6. −1 −2 1  −1 − i −2 −4 − 2i −5 1 7

il Teorema  0 0 0 0 0 1 . 0 0 0 0 1 0

Esercizio 20.8. Calcola il rango delle seguenti matrici con il metodo di eliminazione di Gauss, o con il metodo di eliminazione di Gauss con ◮ normalizzazione, o con il metodo di eliminazione di Gauss-Jordan  .     0 −1   0 0 −2 −2 0 1 −1 0 2 1 1 −1 1. . 2. 1 0 −1. 3. 2 1 2 −1. 4.  0 0 2 2 1 4 2 5 −1 2 1 1 0 1     1 0 0 1 −2 1+i 0 1 −1 3 0 0 5  . 6.  2 1 2 − i 5.   0 6 −2 2 7  0 i −4 2 0 2 2 −4

Esercizio 20.9. Trova il massimo numero di vettori colonna linearmente indipendenti tra           2 1 0 0 2 1  1  −1  0  1  , , , , , 0  0   0   1  3 3 −1 5 −1 0 usando il rango.

Esercizio 20.10. Usa i risultati di questa lezione per rispondere alle seguenti domande.       1 1 1 1. I vettori colonna −1, 2 e −4 sono linearmente indipen1 5 3 denti?         1 0 0 2  0  1  0  3        2. I vettori colonna   1 , 1,  1  e 1 sono linearmente 1 −1 2 −2 indipendenti? Esercizio 20.11. Trova la dimensione dei seguenti sottospazi vettoriali dei corrispondenti spazi vettoriali, usando il rango.       1 2 5 1. Span 2 ,  1  , 4 di R3 . 3 −1 1 c 2014 Gennaro Amendola

Versione 1.0

◮ Teorema 20.16.

◮ Osservazione 20.26.

 3 2 −1 −3 . 1 1 −2 −1

Lezione 20. Rango di una matrice

20–13



         0 1 3 2 4  1  1  0  −2 2 4           2. Span  −1 , 0 ,  1  ,  2  , 0 di R . 2 1 −1 −4 1     1+i 3 − 2i di C2 . , 3. Span 1 + 5i 13

Esercizio  20.12.Per quali valori del parametro k i ranghi delle matrici   1 1 1 1 2 0 2k   Ak = −3 2 k e Bk = sono uguali? −4 k 0 k2 −1 k 6

c 2014 Gennaro Amendola

Versione 1.0

Lezione 20. Rango di una matrice

Risultato dell’Esercizio 20.7.

20–14

1. 2.

2. 0. 3. 2. 4. 3. 5. 3. 6. 3. Risultato dell’Esercizio 20.8.

1. 2.

2. 3. 3. 2. 4. 3. 5. 4. 6. 3.

◮ Applica la definizione del rango di una matrice (Definizione 20.4), e calcola il rango con un metodo qualsiasi.

Risultato dell’Esercizio 20.9. 3. ◮ Risultato dell’Esercizio 20.10. 1. No. 2. Sì. Risultato dell’Esercizio 20.11.

Applica il Teorema 20.1.

1. 2.

2. 4. 3. 1. Risultato dell’Esercizio 20.12. k = 4.

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 20/S3 Rango di una matrice 1

Sessione di Studio 20.3

• Rango di una matrice

Lezione 20. Rango di una matrice

20–15

Sessione di Studio 20.3 Letture supplementari possono essere le seguenti: • http://en.wikipedia.org/wiki/Linearly_independent#Alternative_method_using_determinants

• http://it.wikipedia.org/wiki/Rango_(algebra_lineare)

• http://it.wikipedia.org/wiki/Minore_(algebra_lineare)

• http://it.wikipedia.org/wiki/Teorema_di_Kronecker

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 21 Inversione di matrici 1

Lezione 21 Inversione di matrici

Lezione 21

Inversione di matrici In questa lezione metteremo in relazione l’inversione di matrici al determinante. Daremo anche due modi per calcolare la matrice inversa.

21.1

Inversione di matrici

In tutta questa sezione denoteremo con A = (aij )i=1,...,n una matrice quadrata generica di ordine n su un campo K. Definizione 21.1. Se A è una matrice Cof(A) := (cof A (i, j))i=1,...,n , ossia j=1,...,n  cof A (1, 1) cof A (1, 2)  cof A (2, 1) cof A (2, 2)  Cof(A) :=  .. ..  . .

j=1,...,n

quadrata n × n, la matrice

Matrice dei complementi algebrici/dei cofattori Per la definizione di complemento algebrico si veda la Definizione 19.17.



· · · cof A (1, n) · · · cof A (2, n)   , .. ..  . . cof A (n, 1) cof A (n, 2) · · · cof A (n, n)

Cof

è detta matrice dei complementi algebrici o matrice dei cofattori of A. Osservazione 21.2. La matrice dei cofattori di A è una matrice quadrata dello stesso ordine di A. Notazione 21.3. Come per il determinante, ◮ se la matrice A = (aij )i=1,...,n◮ Notazione 18.10. j=1,...,n

è scritta esplicitamente, le parentesi di Cof(A) non sono scritte per evitare di scrivere due coppie di parentesi:   a11 a12 · · · a1m  a21 a22 · · · a2m    Cof  . .. ..  . ..  .. . . .  an1 an2 · · · anm

Esempio 21.4.



 0 3 1 1. La matrice dei cofattori della matrice 3×3  1 5 −1 −1 −2 0

c 2014 Gennaro Amendola

Versione 1.0

Lezione 21. Inversione di matrici

21–2

è la matrice    0 3 1 cof A (1, 1) cof A (1, 2) Cof  1 5 −1 = cof A (2, 1) cof A (2, 2) −1 −2 0 cof A (3, 1) cof A (3, 2)   5 −1 (−1)1+1 · det −2 0    3 1 =  (−1)2+1 · det −2 0   1 (−1)3+1 · det 35 −1   −2 1 3 = −2 1 −3 . −8 1 −3 2. La matrice dei cofattori della matrice 2 × 2 

1 3 Cof −2 0



=



cof A (1, 1) cof A (1, 2) cof A (2, 1) cof A (2, 2)



=



 cof A (1, 3) cof A (2, 3) = cof A (3, 3)

(−1)1+2 · det

(−1)2+2 · det

(−1)3+2 · det



1 −1 −1 0 0 1 −1 0

0 1 1 −1







  0 3  = (−1)2+3 · det −1 −2   (−1)3+3 · det( 01 35 ) (−1)1+3 · det

1 5 −1 −2

 1 3 è la matrice −2 0

   (−1)1+1 · 0 (−1)1+2 · (−2) 0 2 = . (−1)2+1 · 3 (−1)2+2 · 1 −3 1

Teorema 21.5. Una matrice A ∈ Kn,n è invertibile se e solose detn (A) è diverso da 0. La matrice inversa ha determinante detn A−1 = detn1(A) , ed è la trasposta della matrice dei complementi algebrici moltiplicata per 1 Inversione di una matrice detn (A) : complementi algebrici   cof A (1, 1) cof A (2, 1) · · · cof A (n, 1)  cof A (1, 2) cof A (2, 2) · · · cof A (n, 2)  1 1   t −1 A = · (Cof(A)) = · , .. .. .. .. detn (A) detn (A)   . . . . cof A (1, n) cof A (2, n) · · · cof A (n, n) ossia (A−1 )ji =

con i

cof A (j,i) detn (A) .

Non daremo la dimostrazione di questo teorema, perché è abbastanza lunga.   0 3 1 Esempio 21.6. 1. La matrice 3 × 3 A =  1 5 −1 dell’E−1 −2 0 sempio 21.4-1 è invertibile perché det(A) = 6. ◮ L’inversa di A ◮ è◮  t −2 1 3 1 1 · t (Cof(A)) = −2 1 −3 = A−1 = det(A) 6 −8 1 −3     1 −2 −8 1 4 −2   − − − 6 6  3 3 −2 −2 −8  3  6 1   1   1 1 1 1 1  = 1 1 1 = 6 = 6 . 6 6  6 6  6   3 −3 −3 −3 −3 3 1 − 21 − 21 6 6 6 2   1 3 2. La matrice 2 × 2 A = dell’Esempio 21.4-2 è invertibile −2 0 perché det(A) = 6. L’inversa di A è ◮

c 2014 Gennaro Amendola

Versione 1.0

◮ Abbiamo visto come calcolare i determinanti nelle lezioni precedenti. ◮ ◮ Per il calcolo della matrice dei cofattori si veda l’Esempio 21.4-1.

◮ Per il calcolo della matrice dei cofattori si veda l’Esempio 21.4-2.

Lezione 21. Inversione di matrici

−1

A

21–3

 t 1 1 0 2 t = · (Cof(A)) = = det(A) 6 −3 1       1 0 −3 0 − 1 0 −3 2 = . = 6 6  =  1 1 2 1 6 2 1 6

3. La matrice 2 × 2 A = determinante è 0.



2 −1 4 −2

6



3

6

non è invertibile perché il suo



 1 2 3 4. La matrice 3 × 3 A = 2 4 0 non è invertibile perché il suo 4 8 6 determinante è 0. Corollario 21.7. Matrici coniugate hanno lo stesso determinante. Dimostrazione. Siano A e B due matrici coniugate. Ossia, esiste una matrice invertibile C tale che B = C −1 · A · C. Per  il Teorema di Binet abbiamo det(B) = det C −1 · A · C = det C −1 · det(A) · det(C). Ab 1 biamo anche det C −1 = det(C) ; ◮ sostituendo nell’equazione precedente

otteniamo la

tesi: ◮

1 · det(A) · det(C) = det(A). det(B) = det(C)

Algoritmo 21.8 (Inversione di una matrice con il metodo di eliminazione di Gauss-Jordan). Data la matrice quadrata di ordine n A, si  considera la matrice A In ∈ Kn,2n , che ha A come sottomatrice corrispondente alle prime n colonne e In come sottomatrice corrispondente alle ultime n colonne. Si applica il metodo di eliminazione di Gauss Jordan. ◮ Il risultato dell’algoritmo è una matrice a scalini B C . Se si ha B = In , allora A è invertibile e si ha A−1 = C. Altrimenti, A non è invertibile.

◮ Teorema 21.5. ◮ Il determinante di una matrice è un elemento del campo K, la cui moltiplicazione è commutativa (Proprietà (K2d) della Definizione 9.29).

Inversione di una matrice con il metodo di eliminazione di Gauss-Jordan

◮ Algoritmo 16.56.

Non daremo la dimostrazione che questo algoritmo funziona, perché è piuttosto complicata.   0 3 1 5 −1 Esempio 21.9. 1. Consideriamo la matrice 3×3 A =  1 −1 −2 0 dell’Esempio 21.6-1. Costruiamo la matrice   0 3 1 1 0 0  5 −1 0 1 0 A I3 =  1 −1 −2 0 0 0 1 e applichiamo il metodo di eliminazione di Gauss-Jordan ottenendo   1 4 1 1 0 0 −3 −3 −3     1 1 1 . 0 1 0 6 6 6   0 0 1 21 − 21 − 21

c 2014 Gennaro Amendola

Versione 1.0

Lezione 21. Inversione di matrici

Quindi abbiamo

A−1



  = 

21–4

− 13

− 31

1 2

− 21

1 6

1 6

− 43 1 6



  . 

− 12   1 3 2. Consideriamo la matrice 2 × 2 A = dell’Esempio 21.6-2. −2 0 Costruiamo la matrice    1 3 1 0 A I2 = −2 0 0 1 e applichiamo il metodo di eliminazione di Gauss-Jordan ottenendo   1 0 0 − 21 .  1 0 1 13 6   1 0 −2 . Quindi abbiamo A−1 =  1 3

1 6

Osservazione 21.10. Se a un certo punto del metodo di eliminazione di Gauss-Jordan per l’inversione di A otteniamo che un pivot nelle prime n colonne è a destra del pivot precedente di più di una entrata, o il primo pivot non è nell’entrata (1, 1), o c’è almeno una riga nulla nelle prime n colonne, allora A non è invertibile: è inutile continuare con l’algoritmo. Infatti, ripetendo le stesse  operazioni alla sola matrice A invece che a tutta la matrice A In , otteniamo che il determinante di A è 0. ◮

Esempio 21.11.   1. Consideriamo la matrice non invertibile 2 × 2 2 −1 A= dell’Esempio 21.6-3. Costruiamo la matrice 4 −2    2 −1 1 0 A I2 = 4 −2 0 1 e applichiamo il metodo di eliminazione di Gauss-Jordan. A un certo punto otteniamo   2 −1 1 0 . 0 0 −2 1 Abbiamo trovato che la seconda riga nelle prime due colonne è nulla, infatti A non è invertibile.   1 2 3 2. Consideriamo la matrice non invertibile 3 × 3 A = 2 4 0 4 8 6 dell’Esempio 21.6-4. Costruiamo la matrice   1 2 3 1 0 0  A I3 = 2 4 0 0 1 0 4 8 6 0 0 1 e applichiamo il metodo di eliminazione di Gauss-Jordan. A un certo punto otteniamo   1 2 3 1 0 0 0 0 −6 −2 1 0 . 4 8 6 0 0 1 c 2014 Gennaro Amendola

Versione 1.0

◮ Osservazione 19.14.

Lezione 21. Inversione di matrici

21–5

Abbiamo trovato che il pivot sulla seconda riga (terza colonna) è a destra del pivot della prima riga di due entrate, infatti A non è invertibile.

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 21/S1 Inversione di matrici 1

Sessione di Studio 21.1

Inversione di matrici

Lezione 21. Inversione di matrici

21–6

Sessione di Studio 21.1  0 0 Esercizio 21.1. Calcola l’inversa di A =  0 1

0 0 1 0

0 1 0 0

 1 0  0 0

Soluzione. Diamo due soluzioni: la prima usa il Teorema 21.5, la se◮ Algoritmo 21.8. conda usa il metodo di eliminazione di Gauss-Jordan. ◮ 1. A è invertibile perché det(A) = 1. Abbiamo 1 A−1 = · t (Cof(A)) = det(A)  0 0 1  0 0 0 0 1 0 0 1 0 t (−1)1+4 det 0 1 0 (−1)1+3 det 0 1 0 (−1)1+2 det 0 0 0 (−1)1+1 det 1 0 0   0 00 10   1 00 10   1 00 10   1 00 00    2+1 det 0 2+2 det 0 2+3 det 0 2+4 det 0 1 0 0 0 0 0 0 1 0 010  (−1) (−1) (−1) (−1)  1  0 0 0  01 00 10   01 00 10   01 00 00  = =   1 (−1)3+1 det 00 01 10 (−1)3+2 det 0 1 0 (−1)3+3 det 0 0 0 (−1)3+4 det 0 0 1   01 00 00   01 00 10   01 00 10   00 00 10   (−1)4+4 det 0 0 1 (−1)4+3 det 0 0 0 (−1)4+2 det 0 1 0 (−1)4+1 det 0 1 0 010 010 000 100    t 0 0 0 1 0 0 0 1 0 0 1 0 0 0 1 0    =  0 1 0 0 = 0 1 0 0 . 1 0 0 0 1 0 0 0 2. Costruiamo la matrice  0 0  0 0 A I4 =  0 1 1 0

0 1 0 0

1 0 0 0

1 0 0 0

0 1 0 0

0 0 1 0

 0 0  0 1

e applichiamo il metodo di eliminazione di Gauss-Jordan ottenendo   1 0 0 0 0 0 0 1 0 1 0 0 0 0 1 0   0 0 1 0 0 1 0 0 . 0 0 0 1 1 0 0 0   0 0 0 1 0 0 1 0  Quindi abbiamo A−1 =  0 1 0 0. 1 0 0 0

Esercizio 21.2. Una matrice con una colonna nulla è invertibile? Soluzione. No. Perché il suo determinante è 0. ◮

c 2014 Gennaro Amendola

◮ Osservazione 18.15.

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 21/S2 Inversione di matrici 1

Sessione di Studio 21.2

Inversione di matrici

Lezione 21. Inversione di matrici

21–7

Sessione di Studio 21.2 Esercizio 21.3. Quali delle seguenti matrici sono invertibili? Usa il Teorema 21.5 per rispondere alla domanda. Calcola l’inversa di quelle invertibili, 21.5.  con il Teorema        1 −2 4 −1 2 0 1 3 1 3 1. . 2. . 3. 3 −1 2 . 4.  3 1 −3. −1 −2 −1 −3 0 1 −2 −4 1 2     2 0 2 −3 1 −1 2 3   1 1 −1 −2  2 0 2 . 6. −1 0 . 7. 1 + 2i 5.  . 0 1 −3 −1 0 2 −3 −1 5 2 − 4i 1 0 1 −1 −1 1 −2 −3   i 1 1+i 8. 2i 1 + i 1 . 0 1 + i −3

Esercizio 21.4. Quali delle seguenti matrici sono invertibili? Usa il metodo di eliminazione di Gauss-Jordan ◮ per rispondere alla domanda. ◮ Algoritmo 21.8. Calcola l’inversa di quelle invertibili, con il metodo di eliminazione di Gauss-Jordan.         1 2 −1 2 0 −1 0 1 1 1 . 3. −2 −2 2 . 4. 1 0 2 . . 2. 1. −4 3 2 2 1 5 −1 1 1 −1       1 1 1 0 0 2 −2 1   i 0 1−i 0 2 −1 −1  1 0 1 −1 −4 + 3i i    5.  . 8. 2i 2 1 . 1 0 1 −1. 6. −1 4 −5 6 . 7. i 0 5i 4 3 − i 1 0 1 0 1 4 −3 4

c 2014 Gennaro Amendola

Versione 1.0

Lezione 21. Inversione di matrici

Risultato dell’Esercizio 21.3. 1.    4 6 5 −1 −1 − − 7 7 7  −1 3  6  7 − 72 − 37 . 5. Sì,  0 1   −1 0 1 −1 −1   −2 + 2i 1 − 23 i −1 − 12 i     1 .  3 + i − 32 2   1+i − 12 − 21 i − 21 + 12 i

21–8 

 −2 −3 Sì, 2. No. 3. No. 4. Sì, 1 1  1 4 −2 −1 . 6. No. 7. No. 8. Sì, −1 −1 0 2

3  − 41 Risultato dell’Esercizio 21.4. 1. No. 2. Sì, 4 . 3. No. 4. Sì, 1 0     1 2 −2 1 −1 4 0   5 5   1 0 0 −1 0 −i  3 1    . 6. No. 7. Sì, . − 5 5 1. 5. Sì,  2 −1 1 −3 −i −4 + 3i   0 0 −1 1 − 51 25 0 8. No.

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 21/S3 Inversione di matrici 1

Sessione di Studio 21.3

Inversione di matrici

Lezione 21. Inversione di matrici

21–9

Sessione di Studio 21.3 Letture supplementari possono essere le seguenti: • http://it.wikipedia.org/wiki/Matrice_invertibile

• http://it.wikipedia.org/wiki/Matrice_dei_cofattori

• http://it.wikipedia.org/wiki/Metodo_di_eliminazione_di_Gauss

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 22 Applicazioni lineari 1

Lezione 22 Applicazioni lineari

Lezione 22

Applicazioni lineari In questa lezione definiremo le applicazioni lineari. Esse sono le mappe tra spazi vettoriali che preservano la struttura di spazio vettoriale. Studieremo e caratterizzeremo anche le applicazioni lineari sui vettori colonna.

22.1

Applicazioni lineari

Definizione 22.1. Dati due spazi vettoriali V e W sullo stesso campo K, un’applicazione f : V → W è detta lineare, o K-lineare, se valgono le seguenti proprietà: (AL1) per ogni v1 , v 2 ∈ V si ha f (v1 + v 2 ) = f (v1 ) + f (v 2 ) ;

(AL2) per ogni v ∈ V e λ ∈ K si ha f (λ · v) = λ · f (v).

L’insieme delle applicazioni lineari da V a W è indicato con Lin (V , W ) . Osservazione 22.2. In alcuni libri di testo, le applicazioni lineari sono anche chiamate mappe lineari, trasformazioni lineari o funzioni lineari. Osservazione 22.3. In alcuni libri di testo, invece delle proprietà precedenti, è considerata la proprietà equivalente: (AL1’) for each v 1 , v 2 ∈ V and λ1 , λ2 ∈ K the equality f (λ1 · v 1 + λ2 · v 2 ) = λ1 · f (v 1 ) + λ2 · f (v 2 )

holds.

Osservazione 22.4. Lo scalare λ appartiene sempre al campo K, infatti sia V che W sono spazi vettoriali sullo stesso campo K. Un’applicazione tra due spazi vettoriali su campi diversi non può essere mai lineare. Notazione 22.5. Visto che le applicazioni lineari sono definite solo tra spazi vettoriali sullo stesso campo, quando diremo che “f : V → W è un’applicazione lineare” oppure scriveremo “f ∈ Lin (V , W ),” il fatto che “V e W sono due spazi vettoriali sullo stesso campo” sarà sottinteso. Se vogliamo indicare anche che il campo è K, diremo che “f : V → W è un’applicazione K-lineare”. c 2014 Gennaro Amendola

Versione 1.0

Applicazione lineare

Le due addizioni sono quelle dei due spazi vettoriali V e W . Quella nel membro sinistro è l’addizione di V , infatti v1 e v2 appartengono a V ; quella nel membro destro è l’addizione di W , infatti f (v 1 ) e f (v 2 ) appartengono a W . Le due moltiplicazioni per scalare sono quelle dei due spazi vettoriali V e W . Quella nel membro sinistro è la moltiplicazione per scalare di V , infatti v appartiene a V ; quella nel membro destro è la moltiplicazione per scalare di W , infatti f (v) appartiene a W . Lin (V , W ) Mappa/trasformazione/funzione lineare

Lezione 22. Applicazioni lineari

22–2

Notazione 22.6. Come per altri casi, se una funzione è applicata a un vettore colonna che è scritto esplicitamente, le parentesi di f (X) non sono scritte per evitare di scrivere due coppie di parentesi:   x1  ..  f  . . xn

Esempio 22.7. Le seguenti funzioni sono lineari. Non daremo la dimostrazione per tutte le funzioni. 1. La funzione costante nulla f : V ∋ v 7−→ 0 ∈ W .

Infatti, le due proprietà della definizione sono soddisfatte: (AL1) per ogni v 1 , v 2 ∈ V abbiamo f (v 1 + v 2 ) = 0 e f (v1 ) + f (v2 ) = 0 + 0 = 0, e quindi si ha l’uguaglianza f (v 1 + v 2 ) = f (v 1 ) + f (v 2 ) ; (AL2) per ogni v ∈ V e λ ∈ K abbiamo f (λ · v) = 0 e λ · f (v) = λ · 0, e quindi si ha l’uguaglianza f (λ · v) = λ · f (v).

2. La funzione identità

idV : V ∋ v 7−→ v ∈ V .

Infatti, le due proprietà della definizione sono soddisfatte: (AL1) per ogni v 1 , v 2 ∈ V abbiamo idV (v 1 + v 2 ) = v 1 + v 2 e idV (v 1 ) + idV (v 2 ) = v 1 + v 2 , e quindi si ha l’uguaglianza idV (v 1 + v 2 ) = idV (v 1 ) + idV (v 2 ) ; (AL2) per ogni v ∈ V e λ ∈ K abbiamo idV (λ · v) = v e λ · idV (v) = λ · v, e quindi si ha l’uguaglianza idV (λ · v) = λ · idV (v).

3. La proiezione sulla i-esima coordinata   x1  ..  n proji : K ∋  .  7−→ xi ∈ K. xn

Proiezione

4. Dato un sottospazio vettoriale W di V , la mappa di inclusione incl : W ∋ w 7−→ w ∈ V

di W in V .

5. La moltiplicazione per x sui polinomi, f : K[x] ∋ p(x) 7−→ x · p(x) ∈ K[x] .

E anche le analoghe funzioni su K6d [x], ◮

◮ La moltiplicazione per x aumenta di 1 il grado di un polinomio.

f : K6d [x] ∋ p(x) 7−→ x · p(x) ∈ K6d+1 [x] . Esempio 22.8. Le seguenti funzioni non sono lineari. Non daremo la dimostrazione per tutte le funzioni. c 2014 Gennaro Amendola

Versione 1.0

Lezione 22. Applicazioni lineari

22–3

1. Una qualsiasi funzione costante non nulla f : V ∋ v 7−→ w ∈ W ,

con w 6= 0 fissato. Infatti, abbiamo che f (0 + 0) = f (0) = w, mentre f (0) + f (0) = w + w = 2w. Abbiamo anche che f (2 · 0) = f (0) = w, mentre 2 · f (0) = 2 · w.

2. La funzione ◮

◮ Esempio 6.2-2.

2

q : R ∋ x 7−→ x ∈ R.

Infatti, abbiamo che q(1+1) = q(2) = 22 = 4, mentre q(1)+q(1) = 1 + 1 = 2. Abbiamo anche che q(2 · 1) = q(2) = 22 = 4, mentre 2 · q(1) = 2 · 12 = 2.

3. Il quadrato sui polinomi,

2 f : K[x] ∋ p(x) 7−→ p(x) ∈ K[x] .

4. La traslazione di un vettore non nullo v, ◮

◮ Se v è nullo allora la traslazione è la funzione identità (infatti, v + 0 = v), Tv = idV , quindi è lineare.

Tv : V ∋ v 7−→ v + v ∈ V . Osservazione 22.9. L’Osservazione 22.3 può essere generalizzata a combinazioni lineari qualsiasi. Un’applicazione f : V → W tra due spazi vettoriali sullo stesso campo K è lineare se e solo se per ogni v 1 , v 2 , . . . , v m ∈ V e λ1 , λ2 , . . . , λm ∈ K abbiamo f (λ1 v 1 + λ2 v 2 + · · · + λn v m ) = λ1 f (v 1 )+λ2 f (v 2 )+· · ·+λm f (v m ) .

Le applicazioni lineari sono le applicazioni che preservano le combinazioni lineari. Non abbiamo scritto i simboli per le due moltiplicazioni per scalare (Notazione 10.9).

Osservazione 22.10. Se f : V → W è un’applicazione K-lineare, abbiamo f (0V ) = 0W , dove, per essere più chiari, abbiamo usato due simboli diversi per gli elementi neutri dell’addizione in V e in W , ossia 0V è l’elemento neutro dell’addizione in V (infatti il dominio di f è V ), mentre 0W è l’elemento neutro dell’addizione in W (infatti il codominio di f è W ). Per dimostrare l’uguaglianza, utilizziamo la seguente catena di uguaglianze: ◮ (SV6)

(AL2)

◮ Notazione 9.33.

(SV6)

f (0V ) = f (0 · 0V ) = 0 · f (0V ) = 0W ,

dove 0 indica l’elemento neutro dell’addizione nel campo K. ◮ Il viceversa non è vero. Infatti, la funzione f : R ∋ x → x2 ∈ R non è lineare, ◮ ma è tale che f (0) = 0.

◮ Il campo K è comune a entrambi gli spazi vettoriali V e W . ◮ Esempio 22.8-2.

Proposizione 22.11. La composizione di applicazioni lineari è un’applicazione lineare. Non daremo la dimostrazione di questa proposizione, anche se non è difficile. Proposizione 22.12. Siano V e W due spazi vettoriali sul campo K. Supponiamo che V sia finitamente generato ◮. Sia B = {v 1 , v 2 , . . . , v m } ◮. Allora, una base di V , e siano w1 , w2 , . . . , w m ∈ W vettori di W ◮ esiste una e una sola applicazione lineare f : V → W tale che f (vi ) = wi per i = 1, 2, . . . , m.

c 2014 Gennaro Amendola

Versione 1.0

◮ Richiediamo solo che V sia finitamente generato, e non richiediamo niente per lo spazio vettoriale W , ossia W può essere finitamente generato o no. ◮ ◮ Richiediamo solo che che i vettori v ∗ formino una base di V , e non richiediamo niente per i vettori w ∗ di W , ossia non richiediamo né che siano linearmente dipendenti (o indipendenti), né che generino (o no).

Lezione 22. Applicazioni lineari

22–4

Dimostrazione. (∗∗) L’applicazione f è univocamente determinata dal fatto che richiediamo che sia lineare. Infatti, ogni v ∈ V è il risultato di una e una sola combinazione lineare degli elementi di B ◮, ossia esistono coefficienti λ1 , λ2 , . . . , λm ∈ K tali che

◮ Proposizione 14.24.

v = λ1 v 1 + λ2 v 2 + · · · + λ m v m .

Visto che vogliamo che l’applicazione f sia lineare abbiamo f (v) = f (λ1 v 1 + λ2 v 2 + · · · + λm v m ) = λ1 f (v 1 ) + λ2 f (v 2 ) + · · · + λm f (vm ) = = λ1 w 1 + λ2 w 2 + · · · + λ m w m ,

(22.1)

dove non abbiamo scritto i simboli delle due moltiplicazioni per scalare. ◮ Ci rimane da dimostrare che f è lineare. Dimostriamo le proprietà della definizione di applicazione lineare. ◮ (AL1) Dimostreremo che per ogni v, v ′ ∈ V abbiamo f (v + v ′ ) = f (v) + f (v ′ ). Scriviamo v e v ′ come il risultato di una combinazione lineare degli elementi di B:

◮ Notazione 10.9. ◮ Definizione 22.1.

v = λ1 v 1 + λ2 v 2 + · · · + λm v m

v ′ = λ′1 v 1 + λ′2 v2 + · · · + λ′m v m ,

con λ∗ , λ′∗ ∈ K. Abbiamo ◮  (SV)  (∗) = f v + v ′ = f (λ1 v 1 + λ2 v 2 + · · · + λm v m ) + λ′1 v 1 + λ′2 v 2 + · · · + λ′m v m     (SV) (D) = f λ1 + λ′1 v 1 + λ2 + λ′2 v 2 + · · · + λm + λ′m vm =    (D) (SV) = λ1 + λ′1 f (v 1 ) + λ2 + λ′2 f (v 2 ) + · · · + λm + λ′m f (vm ) =   (D) (SV) = λ1 f (v 1 ) + λ2 f (v 2 ) + · · · + λm f (v m ) + λ′1 f (v1 ) + λ′2 f (v 2 ) + · · · + λ′m f (v m ) = (∗)  ◮ Nell’uguaglianza = sostituiamo v e v ′ con (D) = f (v) + f v ′ . le corrispondenti combinazioni lineari degli

(D)

(AL2) Dimostreremo che per ogni v ∈ V e λ ∈ K abbiamo f (λv) = λf (v). Scriviamo v come il risultato di una combinazione lineare degli elementi di B: v = λ1 v 1 + λ2 v 2 + · · · + λ m v m

(SV)

 (SV) (∗) f (λv) = f λ (λ1 v 1 + λ2 v 2 + · · · + λm v m ) =

 (D) = f (λλ1 ) v 1 + (λλ2 ) v 2 + · · · + (λλm ) v m =

(∗) ◮ ◮ Come sopra, nell’uguaglianza = sostituiamo v con la combinazione lineare degli ele-

(SV)

(D)

(SV)

= (λλ1 ) f (v 1 ) + (λλ2 ) f (v 2 ) + · · · + (λλm ) f (v m ) =  (D) = λ λ1 f (v 1 ) + λ2 f (v 2 ) + · · · + λm f (vm ) =

(SV) (D)

= λf (v).

Esempio 22.13. Sia V lo spazio vettoriale R2 e sia W lo spazio vet   2 1 toriale R3 . L’insieme ordinato B = , è una base di R2 . ◮ 3 1 c 2014 Gennaro Amendola

(SV)

uguaglianze = applichiamo le proprietà della definizione di spazio vettoriale per V (Definizione 22.1); nella seconda delle due uguaglianze = applichiamo le proprietà della definizione di spazio vettoriale per W (Definizione 22.1).

◮ con λ∗ ∈ K. Abbiamo ◮

(D)

elementi di B; nelle due uguaglianze = applichiamo la definizione della funzione f (Formula (22.1)); nella prima delle due

Versione 1.0

menti di B; nelle due uguaglianze = applichiamo la definizione della funzione f (Formula (22.1)); nella prima delle due ugua(SV)

glianze = applichiamo le proprietà della definizione di spazio vettoriale per V (Definizione 22.1); nella seconda delle due ugua(SV)

glianze = applichiamo le proprietà della definizione di spazio vettoriale per W (Definizione 22.1).

◮ Esempio 14.25-2.

Lezione 22. Applicazioni lineari

22–5

    1 −1 Consideriamo 2 ,  1  ∈ R3 . Allora, esiste esattamente una appli0 3         1 −1 2 1 cazione lineare f : V → W tale che f = 2 e f =  1 . 3 1 ◮ Nella prima uguaglianza abbiamo usato 0 3 l’Esempio 14.25-2, nella seconda la lineaEssa può essere scritta esplicitamente: ◮ rità di f , e nella terza la definizione di            f. 2 x1 1 2 1 = f (x2 − x1 ) f + (3x1 − 2x2 ) = (x2 − x1 ) f + (3x1 − 2x2 ) f = x2 3 1 3 1       1 −1 −4x1 + 3x2 . = (x2 − x1 ) 2 + (3x1 − 2x2 )  1  =  x1 0 3 9x1 − 6x2

Osservazione 22.14. Sia V uno spazio vettoriale finitamente generato sul campo K, e sia B = {v 1 , v 2 , . . . , v m } una base di V . Consideriamo l’applicazione [·]B : V ∋ v 7−→ [v]B ∈ Km ,

che abbiamo introdotto nell’Osservazione 14.34. Questa applicazione è lineare, infatti abbiamo: (AL1) per ogni v, v ′ ∈ V , se λ1 , λ2 , . . . , λm sono le coordinate di v rispetto alla base B e λ′1 , λ′2 , . . . , λ′m sono le coordinate di v ′ rispetto alla base B, abbiamo        ′ v + v B = λ1 + λ′1 v 1 + λ2 + λ′2 v 2 + · · · + λm + λ′m v m B =     ′  λ1 λ1 λ1 + λ′1  λ2 + λ′   λ2   λ′  2     2  =  =  ..  +  ..  = ..  .   .    . λm + λ′m

λm

λ′m

  = [λ1 v 1 + λ2 v 2 + · · · + λm v m ]B + λ′1 v 1 + λ′2 v2 + · · · + λ′m v m B =   = [v]B + v ′ B ;

(AL2) per ogni v ∈ V e λ ∈ K, se λ1 , λ2 , . . . , λm sono le coordinate di v rispetto alla base B, abbiamo [λv]B = [(λλ1 ) v 1 + (λλ2 ) v 2 + · · · + (λλm ) v m ]B =     λλ1 λ1  λ2   λλ2      = . =λ· . =  ..   ..  λλm

λm

= λ · [λ1 v 1 + λ2 v 2 + · · · + λm v m ]B = = λ · [v]B .

Per la Proposizione 22.12, esiste una e una sola applicazione lineare da V a Km che manda vi in ei per i = 1, 2, . . . , m: questa applicazione è proprio [·]B . Definizione 22.15. Un’applicazione lineare f : V → V da uno spazio vettoriale in sé è detta endomorfismo o operatore lineare di V . c 2014 Gennaro Amendola

Versione 1.0

I vettori e1 , e2 , . . . , em ∈ Km sono i vettori della base canonica Em di Km (Definizione 14.9), e abbiamo [v i ]B = ei per i = 1, 2, . . . , m (Osservazione 14.32-1). Endomorfismo/operatore lineare In questo caso il fatto che il dominio e il codominio siano spazi vettoriali sullo stesso campo è automatico: sono lo stesso spazio vettoriale.

Lezione 22. Applicazioni lineari

22–6

Esempio 22.16. Consideriamo le applicazioni lineari dell’Esempio 22.7. 1. La funzione costante nulla è un endomorfismo se e solo se W = V . 2. La funzione identità è sempre un endomorfismo. 3. La proiezione è un endomorfismo se e solo se n = 1. ◮

◮ Se n = 1, abbiamo proji = idK .

4. La mappa di inclusione è un endomorfismo se e solo se W = V . ◮

◮ In questo caso, abbiamo incl = idV .

5. La moltiplicazione per x sui polinomi K[x] è un endomorfismo, mentre le funzioni analoghe su K6d [x] non lo sono.

Operazioni sulle applicazioni lineari L’insieme delle applicazioni lineari tra due spazi vettoriali eredita dagli spazi stessi una struttura di spazio vettoriale. Per vedere ciò, prima definiamo sull’insieme delle applicazioni lineari le due operazioni di addizione e moltiplicazione per scalare, e poi vedremo che l’insieme delle applicazioni lineari dotato di queste due operazioni è uno spazio vettoriale. Definizione 22.17. Siano V e W due spazi vettoriali sul campo K. • L’addizione di due applicazioni lineari f, g ∈ Lin (V , W ) è l’applicazione f + g : V → W definita da (f + g)(v) := f (v) + g(v)

∀v ∈ V .

• La moltiplicazione per scalare di un’applicazione lineare f ∈ Lin (V , W ) e di uno scalare λ ∈ K è l’applicazione λ · f : V → W definita da (λ · f )(v) := λ · f (v)

∀v ∈ V .

Osservazione 22.18. L’addizione e la moltiplicazione per scalare appena definite sono operazioni su Lin (V , W ). ◮ Non daremo la dimostrazione di questo fatto, anche se non è difficile. Proposizione 22.19. Dati due spazi vettoriali V e W sul campo K, l’insieme Lin (V , W ), dotato dell’addizione + : Lin (V , W ) × Lin (V , W ) → Lin (V , W )

e della moltiplicazione per scalare

· : K × Lin (V , W ) → Lin (V , W )

definite sopra, è uno spazio vettoriale sul campo K. Non daremo la dimostrazione di questa proposizione, anche se non è difficile.

22.2

Matrici e applicazioni lineari associate

Adesso studieremo e caratterizzeremo le applicazioni lineari sui vettori colonna, ossia da Km a Kn . Definizione 22.20. Sia A ∈ Kn,m data. L’applicazione fA : Km → Kn definita da fA (X) := A · X

è detta applicazione lineare associata alla matrice A. ◮ c 2014 Gennaro Amendola

Versione 1.0

Addizione sulle applicazioni lineari Le due addizioni nell’uguaglianza sono diverse: nel membro sinistro l’addizione è di applicazioni lineari, nel membro destro è di vettori di W . Quindi, i due simboli + rappresentano operazioni diverse: per semplicità, usiamo lo stesso simbolo + (usiamo la Notazione 10.11 perché vedremo che le applicazioni lineari in Lin (V , W ) form a vector space). Moltiplicazione per scalare sulle applicazioni lineari Le due moltiplicazioni nell’uguaglianza sono diverse: nel membro sinistro la moltiplicazione è una moltiplicazione per scalare di un elemento di K e di un’applicazione lineare, nel membro destro è di un elemento di K e di un vettore di W . Quindi, il simbolo · nel membro sinistro rappresenta un’operazione diversa rispetto alla moltiplicazione nel membro destro: per semplicità, usiamo lo stesso simbolo · (usiamo la Notazione 10.11 perché vedremo che le applicazioni lineari in Lin (V , W ) formano uno spazio vettoriale). ◮ Visto che vedremo che le applicazioni lineari in Lin (V , W ) formano uno spazio vettoriale, usiamo la Notazione 10.9 in cui abbiamo stipulato che la moltiplicazione per scalare è fatta prima dell’addizione e abbiamo deciso di evitare di scrivere, se non è necessario, il simbolo della moltiplicazione per scalare “·”, quindi la scrittura λf significa λ · f .

Applicazione lineare associata ad una matrice Ricordiamo che i vettori colonna sono indicati con lettere maiuscole dell’alfabeto latino, ma sono comunque vettori di uno spazio vettoriale (Notazione 10.21). ◮ Prodotto righe per colonne si veda la Lezione 17.

Lezione 22. Applicazioni lineari

22–7

Osservazione 22.21. L’applicazione lineare associata ad una matrice A è effettivamente lineare. Le proprietà della definizione di applicazione lineare ◮ sono una conseguenza della proprietà distributiva a destra del prodotto righe per colonne ◮: (AL1) per ogni X, Y ∈ Km abbiamo

◮ Definizione 22.1. ◮ Proposizione 17.22-4.

fA (X + Y ) = A · (X + Y ) = A · X + A · Y = fA (X) + f (Y ); (AL2) per ogni X ∈ Km e λ ∈ K abbiamo fA (λ · X) = A · (λ · X) = λ · (A · X) = λ · fA (X). Osservazione 22.22. L’applicazione lineare associata alla matrice identità Im è l’applicazione identità idKm . Infatti, abbiamo fIm (X) = Im · X = X per ogni X ∈ Km . L’applicazione lineare associata alla matrice nulla 0n,m è l’applicazione nulla da Km a Kn . Infatti, abbiamo f0n,m (X) = 0n,m · X = 0 per ogni X ∈ Km .  Esempio 22.23. 1. Se consideriamo la matrice 1 × 1 A = 2 , otteniamo l’applicazione lineare ◮   fA : R1 ∋ x1 7−→ 2x1 ∈ R1 .   2 1 2. Se consideriamo la matrice 3 × 2 A =  0 −2, otteniamo −1 3 l’applicazione lineare       2 1   2x1 + x2 x x1 7−→  0 −2 1 =  −2x2  ∈ R3 . f A : R2 ∋ x2 x2 −1 3 −x1 + 3x2   −1 0 0 3. Se consideriamo la matrice 3 × 3 A =  2 −3 1 , otteniamo 2 0 −4 l’applicazione lineare ◮     x1 −x1 fA : R3 ∋ x2  7−→ 2x1 − 3x2 + x3  ∈ R3 . x3 2x1 − 4x3

◮ Essa è un endomorfismo di R1 .

◮ Essa è un endomorfismo di R3 .

Osservazione 22.24. Se A ∈ Kn,k e B ∈ Kk,m sono matrici, abbiamo fA·B = fA ◦ fB .

  Infatti, fA·B (X) = (A·B)·X = A·(B ·X) = A· fB (X) = fA fB (X) = fA ◦ fB (X), dove nella seconda uguaglianza abbiamo usato la proprietà associativa del prodotto righe per colonne ◮. Kn,m

Proposizione 22.25. La funzione da a ad una matrice A l’applicazione lineare fA ,

Lin (Km , Kn ),

che associa

Kn,m ∋ A 7−→ fA ∈ Lin (Km , Kn ) , è bigettiva.

c 2014 Gennaro Amendola

Versione 1.0

◮ Proposizione 17.22-3.

Lezione 22. Applicazioni lineari

22–8

Dimostrazione. (∗∗) Cominciamo dimostrando che la funzione A 7→ fA è surgettiva. Sia f ∈ Lin (Km , Kn ) un’applicazione lineare. Siano f (ei ) ∈ Kn , per i = 1, 2, . . . , m, le immagini dei vettori della base canonica Em di Km , e sia A ∈ Kn,m la matrice che ha come colonne  i vettori colonna x1  x2    f (ei ). Abbiamo f = fA . Infatti, per ogni X =  .  ∈ Km abbiamo  .. 

X=

xm x e . Visto che f è un’applicazione lineare, otteniamo i=1 i i ! m m X X xi f (ei ) , xi e i = f (X) = f

Pm

i=1

i=1

ossia il risultato della combinazione lineare delle colonne di A con coefficienti xi , quindi otteniamo proprio A · X ◮. Dimostriamo ora che la funzione A 7→ fA è iniettiva. Siano A, A′ ∈ Kn,m con A 6= A′ . Abbiamo fA 6= fA′ . Infatti, visto che A 6= A′ , abbiamo che esiste un’entrata (i, j) tale che Aji 6= (A′ )ji . Allora, abbiamo fA (ej ) 6= fA′ (ej ), dove ej è il j-esimo vettore della base canonica Em di Km , infatti l’i-esima coordinata di fA (ej ) è Aji , mentre l’i-esima coordinata di fA′ (ej ) è (A′ )ji . Osservazione 22.26. L’enunciato della proposizione precedente può essere riscritto come segue. Ogni applicazione lineare da Km a Kn è l’applicazione lineare associata ad una e una sola matrice in Kn,m . Osservazione 22.27. La funzione Kn,m ∋ A 7−→ fA ∈ Lin (Km , Kn )

è un’applicazione lineare. Non daremo la dimostrazione di questo fatto, anche se non è difficile.

c 2014 Gennaro Amendola

Versione 1.0

◮ Osservazione 17.19.

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 22/S1 Applicazioni lineari 1

Sessione di Studio 22.1

Applicazioni lineari

Lezione 22. Applicazioni lineari

22–9

Sessione di Studio 22.1 Esercizio 22.1. Dimostra che le omotetie centrate nell’origine con rapporto λ, ossia f : Kn ∋ v 7−→ λv ∈ Kn ,

sono applicazioni lineari. Trova la matrice Aλ tale che f = fAλ . Soluzione. Le due proprietà della definizione sono soddisfatte: (AL1) per ogni v 1 , v 2 ∈ V abbiamo f (v 1 + v 2 ) = λ (v 1 + v 2 ) = λv1 + λv 2 and f (v 1 ) + f (v 2 ) = λv 1 + λv 2 , e quindi si ha l’uguaglianza f (v1 + v 2 ) = f (v1 ) + f (v 2 ) ; (AL2) per ogni v ∈ V e k ∈ K abbiamo f (k · v) = λ(k · v) = λkv and k · f (v) = k · (λv) = λkv, e quindi si ha l’uguaglianza f (k · v) = k · f (v). La matrice è A = λIn , infatti fλIn (v) = (λIn ) v = λv. Esercizio 22.2. Dimostra che le rotazioni rotα del piano centrate nell’origine di un angolo α nel verso antiorario sono applicazioni lineari. Trova la matrice Aα tale che rotα = fAα . Soluzione. Rispetto alle rotazioni l’immagine di una retta è una retta, l’immagine di un parallelogramma è un parallelogramma, e l’immagine di un segmento ha la stessa lunghezza del segmento stesso. L’immagine della diagonale del parallelogramma che definisce la somma di due vettori geometrici è la diagonale dell’immagine del parallelogramma, quindi abbiamo rotα (v 1 + v 2 ) = rotα (v1 ) + rotα (v 2 ). L’immagine di un multiplo di un vettore geometrico è un multiplo dell’immagine del vettore, per lo stesso fattore, perché le lunghezze sulla retta che definisce il multiplo sono preservate, quindi rotα (λv) = λ rotα (v). Quindi, la mappa rotα è lineare. Fissiamo un sistema di riferimento cartesiano (O; x, y). Per la Proposizione 22.25 abbiamo che rotα è l’applicazione lineare associata a una matrice 2 × 2. Le colonne della matrice sono le  immagini,  ri1 cos α spettivamente, di e1 e e2 . Visto che abbiamo rotα = e 0 sen α       0 − sen α cos α − sen α rotα = , abbiamo che la matrice è . 1 cos α sen α cos α

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 22/S2 Applicazioni lineari 1

Sessione di Studio 22.2

Applicazioni lineari

Lezione 22. Applicazioni lineari

22–10

Sessione di Studio 22.2 

 −1 2 −1 −1 Esercizio 22.3. Sia data la matrice A =  4 3 0 1 , e sia fA −3 2 −1 0 l’applicazione lineare associata a A. 1. Qual è il dominio di fA ? 2. Qual è il codominio di fA ? 3. fA è un endomorfismo? 4. Scegli un vettore nel dominio e scrivi la sua immagine. 5. Scrivi la formula esplicita di fA . Esercizio 22.4. Qual è la dimensione della   matrice a cui l’applicazione x − x 1 2     x1 x2 2  ∈ R4 è associata? Scrivi la 7−→  lineare f : R ∋   x2 0 2x2 − 3x1 matrice. f è un endomorfismo? Esercizio 22.5. Qual la dimensione della matrice  è   a cui l’applicazioz1 iz1 + 2z3 ne lineare f : C3 ∋ z2  7−→  (1 − i)z2 − z3  ∈ C3 è associata? z3 −z1 − (2 − 5i)z3 Scrivi la matrice. f è un endomorfismo? Esercizio 22.6. Dimostra che la funzione f : R[x] ∋ p(x) 7−→ p(1) ∈ R è un’applicazione lineare. Esercizio 22.7. Scrivi esplicitamente l’applicazione lineare f : R2 → R3         4 −2 2 −1    tale che f = 1 ef = −1. Scrivi la matrice A a cui 1 0 −2 1 l’applicazione lineare f è associata.

c 2014 Gennaro Amendola

Versione 1.0

Lezione 22. Applicazioni lineari

Risultato dell’Esercizio 22.3.

22–11

1. R4 .

2. R3 . 3. No.



     2 2 −7 −1 −1      4. Scegliamo il vettore  ; f   = 8 . 0 0 −8 3 3     x1 −x1 + 2x2 − x3 − x4 x2    4x1 + 3x2 + x4 . 5. f  x3  = −3x1 + 2x2 − x3 x4   1 −1 0 1 . No. Risultato dell’Esercizio 22.4. 4 × 2.  0 0 −3 2   i 0 2 −1 . Sì. Risultato dell’Esercizio 22.5. 3 × 3.  0 1 − i −1 0 −2 + 5i

La scelta del vettore è arbitraria, quindi il lettore può trovare una soluzione diversa.

Risultato dell’Esercizio 22.6. Dimostra che le due proprietà della definizione sono soddisfatte.       2 0 2x1 x1 Risultato dell’Esercizio 22.7. f = x1 − x2 . ◮ A =  1 −1◮.Proposizione 22.12 e Esempio 22.13. x2 −1 0 −x1

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 22/S3 Applicazioni lineari 1

Sessione di Studio 22.3

Applicazioni lineari

Lezione 22. Applicazioni lineari

22–12

Sessione di Studio 22.3 Letture supplementari possono essere le seguenti: • http://it.wikipedia.org/wiki/Trasformazione_lineare

• http://it.wikipedia.org/wiki/Matrice_di_trasformazione

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 23 Nucleo e immagine 1

Lezione 23 Nucleo e immagine

Lezione 23

Nucleo e immagine In questa lezione definiremo il nucleo delle applicazioni lineari. Studieremo anche l’immagine delle applicazioni lineari, e l’iniettività/surgettività/bigettività delle applicazioni lineari.

23.1

Nucleo

Per chiarezza, in questa sezione, useremo simboli diversi per i vettori nulli in spazi vettoriali diversi: ad esempio, 0V è il vettore nullo nello spazio vettoriale V , mentre 0W è il vettore nullo nello spazio vettoriale W. Definizione 23.1. Sia f : V → W un’applicazione K-lineare. La controimmagine Preimf (0W ) del vettore nullo di W rispetto a f è detta nucleo di f , ed è indicata con Ker(f ) := {v ∈ V | f (v) = 0W }.

Esempio 23.2. 1. Il nucleo della funzione costante nulla f : V → W ◮ è Ker(f ) = V , infatti f (v) = 0 per ogni v ∈ V .

Nucleo di un’applicazione lineare Ker Il nucleo di f è un sottoinsieme del dominio V di f , mentre l’elemento 0W di cui facciamo la controimmagine è il vettore nullo del codominio W . ◮ Esempio 22.7-1.

2. Il nucleo della funzione identità su V ◮ is Ker (idV ) = {0}, infatti abbiamo f (v) = v, quindi abbiamo f (v) = 0 se e solo se v = 0.

◮ Esempio 22.7-2.

3. Il nucleo della proiezione sulla i-esima coordinata ◮ è Ker (proji ) = {X ∈ Kn | xi = 0}, infatti abbiamo proji (X) = xi = 0 per gli elementi del nucleo.

◮ Esempio 22.7-3.

4. Il dell’applicazione lineare fA associata alla matrice A =  nucleo  1 −1 è Ker (fA ) = {02 }. Infatti, abbiamo −1 2     x1 − x2 x1 2 ∈ R2 , 7−→ fA : R ∋ 2x2 − x1 x2       x1 0 x1 − x2 ◮ = 02 , abbiamo quindi se abbiamo fA = , x2 2x2 − x1 0  x1 − x2 = 0 che è equivalente al sistema che ha solo la solu2x2 − x1 = 0   0 zione . 0 c 2014 Gennaro Amendola

Versione 1.0

◮ Lo 02 in Ker (fA ) è l’elemento neutro per l’addizione del mentre lo 02 nella  dominio,  x1 formula fA = 02 è l’elemento neutro x2 per l’addizione del codomino.

Lezione 23. Nucleo e immagine

23–2

5. Il lineare fA associata alla matrice A =  nucleo dell’applicazione  1 1 −3 ◮ Per la seconda è◮ 1 −1 1 Lezione 12.   1  3   Ker (fA ) = X ∈ R x1 + x2 − 3x3 = 0, x1 − x2 + x3 = 0 = Span 2 . 1

uguaglianza si veda la

Infatti, abbiamo 

   x1 x1 + x2 − 3x3 3   fA : R ∋ x2 7−→ ∈ R2 , x1 − x2 + x3 x3     x1 x1 + x2 − 3x3 quindi se abbiamo fA x2  = 02 , abbiamo = x1 − x2 + x3 x3    0 x1 + x2 − 3x3 = 0 le cui , che è equivalente al sistema 0 x1 − x2 + x3 = 0   k soluzioni sono 2k con k ∈ R. k

6. Il  nucleodell’applicazione lineare fA associata alla matrice A = 1 2  1 0 è Ker (fA ) = {02 }. Infatti, abbiamo −1 1     x1 + 2x2 x1 f A : R2 ∋ 7−→  x1  ∈ R3 x2 x2 − x1       x1 + 2x2 0 x1    quindi se abbiamo fA x1 = 03 , abbiamo = 0, x2 x2 − x1 0   x1 + 2x2 = 0 che è equivalente al sistema x =0 che ha solo la solu 1 x2 − x1 = 0   0 zione . 0

Osservazione 23.3. Il vettore nullo 0V of V appartiene sempre al nucleo di f , che quindi non può essere vuoto. Infatti, abbiamo f (0V ) = 0W . ◮

◮ Osservazione 22.10.

Proposizione 23.4. Il nucleo di un’applicazione K-lineare f : V → W è un sottospazio vettoriale del dominio V . Dimostrazione. (∗∗) Dimostreremo le proprietà della Proposizione 12.3 per l’insieme Ker(f ). (SSV1) Abbiamo già dimostrato che 0V ∈ Ker(f ). ◮

(SSV2) Dimostriamo che per ogni v 1 , v 2 ∈ Ker(f ) abbiamo v1 + v 2 ∈ Ker(f ). Se v 1 , v 2 ∈ Ker(f ), allora f (v 1 ) = 0W e f (v 1 ) = 0W . Visto che f è un’applicazione lineare, abbiamo f (v 1 + v 2 ) = c 2014 Gennaro Amendola

Versione 1.0

◮ Osservazione 23.3.

Lezione 23. Nucleo e immagine

23–3

f (v 1 ) + f (v 2 ) = 0W + 0W = 0W , quindi abbiamo v 1 + v 2 ∈ Ker(f ). (SSV3) Dimostriamo che per ogni v ∈ Ker(f ) e λ ∈ K abbiamo λv ∈ Ker(f ). Se v ∈ Ker(f ), allora f (v) = 0W . Visto che f è un’applicazione lineare, abbiamo f (λv) = λf (v) = λ · 0W = 0W , quindi abbiamo λv ∈ Ker(f ). Esempio 23.5. Il nucleo di ciascuna applicazione lineare dell’Esempio 23.2 è un sottospazio vettoriale del corrispondente spazio vettoriale. ◮ Proposizione 23.6. Un’applicazione lineare è iniettiva se e solo se il suo nucleo è {0}. Dimostrazione. (∗∗) Cominciamo dimostrando che se un’applicazione lineare f : V → W è iniettiva, allora Ker(f ) = {0V }. Sappiamo che f (0V ) = 0W . ◮ Visto che f è iniettiva, per ogni vettore v ∈ V con v 6= 0V abbiamo che f (v) 6= f (0V ), ossia f (v) 6= 0W . Quindi, v 6∈ Ker(f ), ossia Ker(f ) = {0V }. Dimostriamo ora che se il nucleo di f : V → W è {0V }, allora f è iniettiva. Siano v 1 e v 2 due vettori di V con v 1 6= v 2 . Supponiamo per assurdo che f (v 1 ) = f (v 2 ). Allora, abbiamo f (v 1 ) − f (v 2 ) = 0W . Visto che f è lineare, abbiamo f (v 1 ) − f (v 2 ) = f (v 1 − v 2 ), e quindi f (v 1 − v 2 ) = 0W , ossia v 1 − v 2 ∈ Ker(f ). Visto che Ker(f ) = {0V }, abbiamo v 1 − v 2 = 0V , ossia v 1 = v 2 : una contraddizione.

◮ Abbiamo visto come controllare che un sottoinsieme di uno spazio vettoriale è un sottospazio vettoriale nella Lezione 12.

◮ Osservazione 23.3.

Osservazione 23.7. La proposizione precedente è fondamentale, e semplificherà molto i conti e le dimostrazioni. Infatti, d’ora in poi, per controllare se un’applicazione lineare è iniettiva, sarà sufficiente studiare il nucleo e controllare se esso è {0} o no.

Esempio 23.8. Consideriamo le applicazioni lineari dell’Esempio 23.2. 1. Il nucleo della funzione costante nulla f : V → W è V , che è {0} se e solo se V = {0}, e la funzione costante nulla non è mai iniettiva eccetto se il dominio è {0}. 2. Il nucleo della funzione identità su V è {0}, e la funzione identità è sempre iniettiva.

3. Il nucleo della proiezione sulla i-esima coordinata è {X ∈ Kn | xi = 0}, che non è {0n }, e la proiezione non è mai iniettiva.

4. Il dell’applicazione lineare fA associata alla matrice A =  nucleo  1 −1 è {02 }, quindi l’applicazione fA è iniettiva. −1 2

5. Il nucleo dell’applicazione  lineare  fA associata alla matrice A =   1 1 1 −3 è Span 2, che non è {0}, quindi l’applica1 −1 1 1 zione fA non è iniettiva. 6. Il  nucleodell’applicazione lineare fA associata alla matrice A = 1 2  1 0 è {02 }, quindi l’applicazione fA è iniettiva. −1 1

c 2014 Gennaro Amendola

Versione 1.0

Lezione 23. Nucleo e immagine

23–4

Osservazione 23.9. Sia f : V → W un’applicazione lineare. Se la controimmagine Preimf (w) di un vettore w ∈ W rispetto a f non è vuota, essa è ottenuta traslando opportunamente il nucleo di f . Scegliamo arbitrariamente un vettore v di Preimf (w); allora, abbiamo Preimf (w) = v + Ker(f ). Infatti, se v ∈ v + Ker(f ), esiste v ′ ∈ Ker(f ) tale che v = v + v ′ ; visto che f è lineare, abbiamo f (v) = f (v + v′ ) = f (v) + f (v ′ ) = w + 0W = w, ossia v ∈ Preimf (w). Viceversa, se v ∈ Preimf (w), abbiamo, utilizzando di nuovo il fatto che f è lineare, f (v − v) = f (v) − f (v) = w − w = 0W , ossia v − v ∈ Ker(f ) e quindi v ∈ v + Ker(f ). 1. Consideriamo l’applicazione lineare f associata A    1 1 1 −3 alla matrice A = il cui nucleo è Span 2. ◮ 1 −1 1 1       −1 −1 −4 Visto che abbiamo fA  0  = , abbiamo  0  ∈ 0 1 1   −4 , quindi abbiamo PreimfA 0       −1 1 −4     0 + Span 2 , PreimfA = 0 1 1   −4 ossia il generico elemento di PreimfA è◮ 0       −1 1 −1 + λ  0  + λ 2 =  2λ  with λ ∈ R. 1 1 1+λ

Qui consideriamo la somma di un elemento v di V e del sottoinsieme Ker(f ) di V : essa è definita come l’insieme i cui elementi sono le somme di v e di un elemento di Ker(f ).

Esempio 23.10.

2. Consideriamo l’applicazione lineare fA associata alla matrice A =     1 2 2  1 0 il cui nucleo è {02 }. ◮ Visto che abbiamo fA = −1 −1 1       0 0  2 , abbiamo 2 ∈ PreimfA  2 , quindi abbiamo −1 −3 −3     0 2     PreimfA 2 = + {02 }, −1 −3     0 2 + ossia c’è un solo elemento in PreimfA  2  ◮, che è −1 −3     0 2 = . 0 −1

Osservazione 23.11. Sia f : V → W un’applicazione lineare. La controimmagine del vettore nullo rispetto a f è un sottospazio vettoriale di V . ◮ Invece, la controimmagine di un vettore non nullo w ∈ W rispetto c 2014 Gennaro Amendola

Versione 1.0

◮ Esempio 23.2-5.

◮ Infatti, fA non è iniettiva (Esempio 23.85).

◮ Esempio 23.2-6.

◮ Infatti, fA è iniettiva (Esempio 23.8-6).

◮ Proposizione 23.4.

Lezione 23. Nucleo e immagine

23–5

a f non è un sottospazio vettoriale di V ; infatti 0V non appartiene a Preimf (w), perché f (0V ) = 0W 6= w.

Esempio 23.12. Consideriamo le applicazioni lineari dell’Esempio 23.10.       −1 + λ  −4 1. 03 6∈ PreimfA =  2λ  ∈ R3 λ ∈ R . 0   1+λ     0 2 2. 02 6∈ PreimfA  2  = . −1 −3

23.2

Immagine e rango di un’applicazione lineare

Ricordiamo che l’immagine di una generica applicazione lineare f : V → W è◮ Im(f ) = {w ∈ W | ∃v ∈ V con f (v) = w}.

L’immagine di un’applicazione è definita a prescindere dal fatto che l’applicazione sia lineare o meno. ◮ Definizione 6.7.

Osservazione 23.13. Il vettore nullo di W appartiene sempre all’immagine di un’applicazione lineare f : V → W . Infatti, abbiamo f (0) = 0. ◮

◮ Osservazione 22.10.

Proposizione 23.14. L’immagine di un’applicazione K-lineare f : V → W è un sottospazio vettoriale del codominio W . Dimostrazione. (∗∗) Dimostreremo le proprietà della Proposizione 12.3 per l’insieme Im(f ). (SSV1) Abbiamo già dimostrato che 0 ∈ Im(f ). ◮

◮ Osservazione 23.13.

(SSV2) Dimostriamo che per ogni w1 , w 2 ∈ Im(f ) abbiamo w1 + w2 ∈ Im(f ). Se w1 , w2 ∈ Im(f ), allora esistono v 1 , v 2 ∈ V tali che f (v 1 ) = w1 e f (v 1 ) = w2 . Visto che f è un’applicazione lineare, abbiamo f (v 1 + v 2 ) = f (v1 )+f (v 2 ) = w1 +w2 , quindi abbiamo w1 + w2 ∈ Im(f ).

(SSV3) Dimostriamo che per ogni w ∈ Im(f ) e λ ∈ K abbiamo λw ∈ Im(f ). Se w ∈ Im(f ), allora esiste v ∈ V tale che f (v) = w. Visto che f è un’applicazione lineare, abbiamo f (λv) = λf (v) = λ · w, quindi abbiamo λw ∈ Im(f ).

Osservazione 23.15. Non solo l’immagine dell’applicazione lineare f : V → W è un sottospazio vettoriale di W , ma anche l’immagine f (U ) di un qualsiasi sottospazio vettoriale U di V rispetto a f è un sottospazio vettoriale di W . Infatti, la dimostrazione della Proposizione 23.14 funziona anche per f (U ). Definizione 23.16. Sia f : V → W un’applicazione K-lineare. Se V è finitamente generato, la dimensione del sottospazio vettoriale Im(f ) è detta rango di f , ed è indicata con rank(f ) := dim (Im(f )) .

Rango di un’applicazione lineare Abbiamo usato lo stesso nome e lo stesso simbolo del rango di matrici. Questo non creerà fraintendimenti perché se l’applicazione lineare e la matrice sono “legati” (in uno specifico modo che vedremo) i due ranghi coincidono. rank(·)

c 2014 Gennaro Amendola

Versione 1.0

Lezione 23. Nucleo e immagine

23–6

Osservazione 23.17. Sia f : V → W un’applicazione K-lineare. Se V è finitamente generato e se B = {v 1 , v 2 , . . . , v m } è una sua base, l’immagine di f è generata dall’immagine dei vettori di B: Im(f ) = Span (f (v1 ) , f (v2 ) , . . . , f (v m )) .

Abbiamo definito le basi solo per gli spazi vettoriali finitamente generati (Osservazione 14.21), quindi se vogliamo usare le basi non ha senso considerare spazi vettoriali non finitamente generati.

Infatti, ogniPelemento w ∈ Im(f ) è l’immagine di un qualche v ∈ V ; abbiamo v =P ni=1 ki v i perPalcuni coefficienti ki ∈ K, quindi abbiamo w = f (v) = f ( ni=1 ki v i ) = ni=1 ki f (v i ) e quindi w ∈ Span (f (v 1 ) , f (v2 ) , . . . , f (v m )). Viceversa, ogni elemento w ∈PSpan (f (v 1 ) , f (v 2P ) , . . . , f (v m )) è l’imn n magine di un vettore: w = i=1 ki f (v i ) = f ( i=1 ki v i ) per alcuni coefficienti ki ∈ K. Se abbiamo V = Km e W = Kn , l’immagine dell’applicazione lineare fA associata alla matrice A ∈ Kn,m ◮ è generata dalle colonne ◮ Every linear map from Km to Kn is the map associated to a matrix in Kn,m A1 , A2 , . . . , Am of A. Infatti, l’immagine dei vettori della base canonica linear (Proposition 22.25). di Rm è fA (ej ) = A · ej = Aj per j = 1, 2, . . . , m. Esempio 23.18. Nei primi tre casi useremo la definizione, negli ultimi tre useremo l’osservazione precedente. 1. L’immagine della funzione costante nulla f : V → W ◮ è Im(f ) = {0W }, infatti f (v) = 0W per ogni v ∈ V . 2. L’immagine della funzione identità su V per ogni v ∈ V abbiamo f (v) = v.



è Im (idV ) = V , infatti

◮ Esempio 22.7-1.

◮ Esempio 22.7-2.

3. L’immagine della proiezione sulla i-esima coordinata ◮ è Im (proji ) = ◮ Esempio 22.7-3. K, infatti per ogni x ∈ K abbiamo proji (x · ei ) = x.

4. L’immagine A associata  f   alla matrice A =   dell’applicazione lineare 1 −1 1 −1 ◮ ◮, infatti le è Im (fA ) = Span , = R2 ◮ −1 2 −1 2     1 −1 colonne di A sono e , o equivalentemente abbiamo −1 2         x1 x1 − x2 1 −1 fA = = x1 + x2 . x2 2x2 − x1 −1 2 5. L’immagine dell’applicazione lineare fA associata A=    alla  matrice    1 1 −3 1 1 −3 ◮ ◮, è Im (fA ) = Span , , = R2 ◮ 1 −1 1 1 −1 1       1 1 −3 infatti le colonne di A sono , e , o equivalente1 −1 1 mente abbiamo           x1 x1 + x2 − 3x3 1 1 −3 fA x2  = = x1 + x2 + x3 . x1 − x2 + x3 1 −1 1 x3

6. L’immagine A associata  f   alla matrice A =   dell’applicazione lineare 1 2 1 2  1 0 ◮ è Im (fA ) = Span  1  , 0, infatti le colonne −1 1 −1 1

c 2014 Gennaro Amendola

Versione 1.0

◮ Esempio 23.2-4. ◮ ◮ Per la seconda uguaglianza si veda la Lezione 12.

◮ Esempio 23.2-5. ◮ ◮ Per la seconda uguaglianza si veda la Lezione 12.

◮ Esempio 23.2-6.

Lezione 23. Nucleo e immagine

23–7



   1 2 di A sono  1  and 0, o equivalentemente abbiamo −1 1         x1 + 2x2 1 2 x1      fA = x1 = x1 1 + x2 0 . x2 x2 − x1 −1 1

Proposizione 23.19. Sia f : V → W un’applicazione lineare, e sia V finitamente generato. L’applicazione lineare f è surgettiva, se e solo se W è finitamente generato e rank(f ) = dim(W ). Dimostrazione. Sia B una base di V . Cominciamo dimostrando che se f è surgettiva, allora W è finitamente generato e rank(f ) = dim(W ). Se Im(f ) = W , allora abbiamo che W è generato dalle immagini dei vettori di B ◮, e quindi è finitamente generato. Inoltre, abbiamo rank(f ) = dim (Im(f )) = dim(W ). Dimostriamo ora che se W è finitamente generato e rank(f ) = dim(W ), allora f è surgettiva. Se rank(f ) = dim(W ), abbiamo che Im(f ) è un sottospazio vettoriale di W che ha la stessa dimensione di W . Quindi, abbiamo Im(f ) = W . ◮ Esempio 23.20. Consideriamo le applicazioni lineari dell’Esempio 23.18. 1. L’immagine della funzione costante nulla f : V → W è {0}, che è V se e solo se V = {0}, e la funzione costante nulla non è mai surgettiva eccetto se il dominio è {0}. 2. L’immagine della funzione identità su V è V , e la funzione identità è sempre surgettiva.

3. L’immagine della proiezione sulla i-esima coordinata è K, che non è {0}, e la proiezione è sempre surgettiva. La dimensione di Im(f ) è 1, e la dimensione del codominio K è anche 1. 4. L’immagine   dell’applicazione lineare fA associata alla matrice A = 1 −1 è R2 , quindi l’applicazione fA è surgettiva. La dimen−1 2 sione di Im (fA ) è 2, e la dimensione del codominio R2 è anche 2. 5. L’immagine dell’applicazione lineare fA associata alla matrice A =   1 1 −3 è R2 , quindi l’applicazione fA è surgettiva. La di1 −1 1 mensione di Im (fA ) è 2, e la dimensione del codominio R2 è anche 2. 6. L’immagine lineare      dell’applicazione  fA associata alla matrice A = 1 2 1 2  1 0 è Span  1  , 0, quindi l’applicazione fA non −1 1 −1 1 è surgettiva. La dimensione di Im (fA ) è 2, mentre la dimensione del codominio R3 è 3.

c 2014 Gennaro Amendola

Versione 1.0

◮ Osservazione 23.17.

◮ Corollario 15.27.

Lezione 23. Nucleo e immagine

23.3

23–8

Teorema fondamentale dell’algebra lineare

Il seguente teorema è uno dei più importanti in algebra lineare. Teorema 23.21 (Teorema fondamentale dell’algebra lineare). Sia f : V → Teorema fondamentale dell’algebra W un’applicazione lineare, e sia V finitamente generato. Allora, si ha lineare Non stiamo chiedendo che W sia finil’uguaglianza tamente generato. Visto che consideriadim (Ker(f )) + dim (Im(f )) = dim(V ). Dimostrazione. (∗∗) Abbiamo che Ker(f ) è finitamente generato ◮: quindi, introduciamo p = dim (Ker(f )), e sia BKer = {v 1 , v 2 , . . . , v p } una ◮ : quindi, base di Ker(f ). Abbiamo che Im(f ) è finitamente generato ◮ introduciamo q = dim (Im(f )), e sia BIm = {w1 , w2 , . . . , w q } una base di Im(f ). Dimostreremo che dim(V ) = p + q. Per fare ciò, esibiremo una base di V con p + q elementi. Abbiamo i primi p elementi: v 1 , v 2 , . . . , v p . Per trovare gli altri q, notiamo che per ogni i = 1, 2, . . . , q il vettore wi appartiene a Im(f ), quindi esiste ui ∈ V con f (ui ) = wi . I q elementi che stiamo cercando sono u1 , u2 , . . . , uq . Per dimostrare che dim(V ) = p + q, dimostriamo che {v 1 , v 2 , . . . , v p , u1 , u2 , . . . , uq } è una base di V . Dimostriamo che v 1 , v 2 , . . . , v p , u1 , u2 , . . . , uq generano V . Sia v un generico vettore di V . Abbiamo f (v) ∈ Im(f ), quindi f (v) è il risultato di una combinazione lineare dei vettori della base BIm : i.e.

mo un’applicazione lineare f , questo enunciato non ha attinenza con i vettori che non appartengono all’immagine di f , quindi nessuna ipotesi su W \ Im(f ) è necessaria. However, from the hypotheses we deduce that Im(f ) is finitely spanned (Osservazione 23.17). ◮ Teorema 15.23. ◮ Osservazione 23.17. ◮

Non possiamo scegliere {v 1 , v 2 , . . . , v p , w 1 , w2 , . . . , w q }, perché i vettori w ∗ appartengono a W , mentre stiamo cercando una base di V .

Non abbiamo scelta sul cammino da prendere: possiamo solo applicare f .

f (v) = λ1 w1 + λ2 w2 + · · · + λq wq ,

f (v) − λ1 w1 − λ2 w2 − · · · − λq wq = 0.

Usando prima la definizione dei vettori u∗ e poi la linearità di f , otteniamo 0 = f (v) − λ1 w1 − λ2 w2 − · · · − λq wq

Di nuovo, possiamo solo sostituire ciascun w i con f (ui ), e poi usare la linearità di f (che deve essere usata da qualche parte).

= f (v) − λ1 f (u1 ) − λ2 f (u2 ) − · · · − λq f (uq )

= f (v − λ1 u1 − λ2 u2 − · · · − λq uq ) ,

i.e. v − λ1 u1 − λ2 u2 − · · · − λq uq ∈ Ker(f ). This implies that v − λ1 u1 − λ2 u2 − · · · − λq uq is the result of a linear combination of the vectors of the basis BKer : ossia

v − λ1 u 1 − λ2 u 2 − · · · − λq u q = µ 1 v 1 + µ 2 v 2 + · · · + µ p v p , v = µ1 v 1 + µ2 v 2 + · · · + µp vp + λ1 u1 + λ2 u2 + · · · + λq uq .

La dimostrazione che v1 , v 2 , . . . , vp , u1 , u2 , . . . , uq genera V è completa.

Dimostriamo ora che v 1 , v 2 , . . . , v p , u1 , u2 , . . . , uq sono linearmente indipendenti. Consideriamo una combinazione lineare µ1 v 1 + µ2 v 2 + · · · + µp v p + λ1 u1 + λ2 u2 + · · · + λq uq = 0 (23.1)

che ha come risultato zero, e dimostriamo che i coefficienti sono tutti nulli. Applicando f otteniamo f (µ1 v1 + µ2 v 2 + · · · + µp v p + λ1 u1 + λ2 u2 + · · · + λq uq ) = f (0),

che per la linearità di f diventa

µ1 f (v 1 )+µ2 f (v 2 )+· · ·+µp f (v p )+λ1 f (u1 )+λ2 f (u2 )+· · ·+λq f (uq ) = 0. c 2014 Gennaro Amendola

Versione 1.0

Di nuovo, possiamo solo applicare f , e poi usare la sua linearità.

Lezione 23. Nucleo e immagine

23–9

Per i = 1, 2, . . . , p, abbiamo v i ∈ Ker(f ), ossia f (v i ) = 0; inoltre, per i = 1, 2, . . . , q, abbiamo f (ui ) = wi . Quindi, la precedente equazione diventa λ1 w1 + λ2 w2 + · · · + λq wq = 0.

Per l’indipendenza lineare dei vettori della base BIm abbiamo λi = 0 per ogni i = 1, 2, . . . , q. Torniamo all’equazione iniziale ◮, che per quanto appena dimostrato diventa

◮ Equazione (23.1).

µ1 v 1 + µ2 v 2 + · · · + µp v p = 0.

Per l’indipendenza lineare dei vettori della base BKer abbiamo µi = 0 per ogni i = 1, 2, . . . , p. Abbiamo dimostrato che tutti i coefficienti della combinazione lineare (23.1) sono nulli, quindi la dimostrazione è conclusa.

La dimostrazione che i vettori v 1 , v2 , . . . , vp , u1 , u2 , . . . , uq sono linearmente indipendenti è completa.

Osservazione 23.22. Usando il rango, possiamo riscrivere l’equazione del Teorema fondamentale dell’algebra lineare come

Questo fatto spiega perché il precedente teorema è anche chiamato “Teorema del rango”.

dim (Ker(f )) + rank(f ) = dim(V ). Esempio 23.23. Consideriamo le applicazioni lineari dell’Esempio 23.2 di cui abbiamo calcolato l’immagine nell’Esempio 23.18. 1. Supponiamo che V sia finitamente generato (con dimensione dim(V )). Abbiamo che la dimensione del nucleo della funzione costante nulla è dim(V ), e che la dimensione dell’immagine è 0. We have dim(V ) + 0 = dim(V ). 2. Supponiamo che V sia finitamente generato (con dimensione dim(V )). Abbiamo che la dimensione del nucleo della funzione identità è 0, e che la dimensione dell’immagine è dim(V ). Abbiamo 0+dim(V ) = dim(V ). 3. Abbiamo dim (Ker (proji )) = n−1 ◮, dim (Im(f )) = 1, e dim (Kn ) = n. Abbiamo (n − 1) + 1 = n.  4. Abbiamo dim (Ker (fA )) = 0, dim (Im (fA )) = 2, e dim R2 = 2. Abbiamo 0 + 2 = 2.  5. Abbiamo dim (Ker (fA )) = 1, dim (Im (fA )) = 2, e dim R3 = 3. Abbiamo 1 + 2 = 3.  6. Abbiamo dim (Ker (fA )) = 0, dim (Im (fA )) = 2, e dim R2 = 2. Abbiamo 0 + 2 = 2.

Corollario 23.24. Sia f : V → W un’applicazione lineare, e siano V e W finitamente generati. 1. Se f è iniettiva, si ha dim(V ) 6 dim(W ). 2. Se f è surgettiva, si ha dim(V ) > dim(W ).

◮ Abbiamo visto come calcolare le dimensioni nella Lezione 12.

This statement deals with one implication only: the converse implication does not hold, indeed the conditions on the dimensions of the domain and the codomain do not imply any result on the linear map.

3. Se f è bigettiva, si ha dim(V ) = dim(W ). Dimostrazione. (∗∗) Dimostriamo i tre punti. ◮. 1. Se f è iniettiva, abbiamo Ker(f ) = {0} ◮, ossia dim (Ker(f )) = 0 ◮ Quindi, per il Teorema fondamentale dell’algebra lineare, abbiamo =0

z }| { dim(V ) = dim (Ker(f )) + dim (Im(f )) = dim (Im(f )) .

c 2014 Gennaro Amendola

Versione 1.0

◮ Proposizione 23.6. ◮ ◮ Osservazione 15.6.

Lezione 23. Nucleo e immagine

23–10

Abbiamo dim (Im(f )) 6 dim(W ) ◮, e quindi la tesi: dim(V ) 6 dim(W ).

◮ Teorema 15.23.

2. Se f è surgettiva, abbiamo Im(f ) = W , i.e. dim (Im(f )) = dim(W ). Quindi, per il Teorema fondamentale dell’algebra lineare, abbiamo =dim(W )

}| { z dim(V ) = dim (Ker(f ))+ dim (Im(f )) = dim (Ker(f ))+dim(W ).

Visto che dim (Ker(f )) > 0 otteniamo la tesi: dim(V ) > dim(W ).

3. Se f è bigettiva, f è sia iniettiva che surgettiva, quindi i due punti appena dimostrati implicano, rispettivamente, dim(V ) 6 dim(W ) e dim(V ) > dim(W ), ossia dim(V ) = dim(W ). Corollario 23.25. Sia f : V → W un’applicazione lineare, e siano V e W finitamente generati della stessa dimensione ◮. Allora, i seguenti fatti sono equivalenti: • f è iniettiva,

◮ Stiamo supponendo che

dim(V ) = dim(W ).

• f è surgettiva, • f è bigettiva.

Dimostrazione. (∗∗) Cominciamo dimostrando che se f è iniettiva, allora f è anche surgettiva. Se f è iniettiva, abbiamo Ker(f ) = {0} ◮, ossia ◮ Quindi, per il Teorema fondamentale dell’algebra dim (Ker(f )) = 0. ◮ lineare, abbiamo

◮ Proposizione 23.6. ◮ ◮ Osservazione 15.6.

=0

}| { z dim(V ) = dim (Ker(f )) + dim (Im(f )) = dim (Im(f )) .

Visto che, per ipotesi, dim(V ) = dim(W ), abbiamo dim(W ) = dim (Im(f )), ◮ Corollario 15.27, e quindi abbiamo W = Im(f ), ◮ ossia f è surgettiva. Dimostreremo ora che se f è surgettiva, allora f è anche iniettiva. Se f è surgettiva, abbiamo Im(f ) = W , ossia dim (Im(f )) = dim(W ). Quindi, per il Teorema fondamentale dell’algebra lineare, abbiamo =dim(W )

z }| { dim (Ker(f )) = dim(V ) − dim (Im(f )) = dim(V ) − dim(W ).

Visto che, per ipotesi, dim(V ) = dim(W ), abbiamo dim (Ker(f )) = 0, e quindi abbiamo Ker(f ) = {0}. ◮ Ciò è equivalente a dire che f è iniettiva. ◮ Abbiamo dimostrato l’equivalenza dei primi due fatti, ossia che f è iniettiva se e solo se è surgettiva. La dimostrazione delle altre due equivalenze è semplice. Se f è bigettiva, allora f è sia iniettiva che surgettiva. Viceversa, se f è iniettiva, abbiamo dimostrato sopra che f è anche surgettiva, e quindi f è bigettiva. Se invece f è surgettiva, abbiamo dimostrato sopra che f è anche iniettiva, e quindi f è bigettiva. Esempio 23.26. Consideriamo l’applicazione lineare fA associata al 1 −1 la matrice A = dell’Esempio 23.2-4. Abbiamo dimostrare −1 2 che essa è iniettiva e surgettiva ◮, e quindi è bigettiva. Per il Corollario 23.25, visto che le dimensioni del dominio e del codominio sono uguali (entrambe sono uguali a 2), abbiamo: c 2014 Gennaro Amendola

Versione 1.0

◮ Osservazione 15.6. ◮ Proposizione 23.6.

◮ Esempi 23.8-4 e 23.20-4, rispettivamente.

Lezione 23. Nucleo e immagine

23–11

• il fatto che fA è iniettiva implica che fA è surgettiva, quindi non è necessario dimostrarlo; • il fatto che fA è surgettiva implica che fA è iniettiva, quindi non è necessario dimostrarlo.

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 23/S1 Nucleo e immagine 1

Sessione di Studio 23.1

Nucleo e immagine

Lezione 23. Nucleo e immagine

23–12

Sessione di Studio 23.1 Esercizio 23.1. Trova il nucleo e l’immagine della mappa di inclusione incl : W ∋ w 7−→ w ∈ V di un sottospazio vettoriale W di uno spazio vettoriale V in V . ◮ Quando il Teorema 23.21 può essere applicato, applicalo alla mappa di inclusione.

◮ Esempio 22.7-4.

Soluzione. Se incl(w) = 0, allora w = 0, perché incl(w) = w; quindi, abbiamo Ker(incl) = {0}. Gli unici vettori v di V tali che esiste w tale che incl(w) = v sono i vettori in W , perché incl(w) = w; quindi, abbiamo Im(incl) = W . Il Teorema 23.21 può essere applicato se e solo se W è finitamente dim(Ker(incl))

dim(Im(incl))

dim(W )

z }| { z }| { z }| { generato. In questo caso abbiamo dim({0}) + dim(W ) = dim(W ). Esercizio 23.2. Trova il nucleo e l’immagine dell’applicazione lineare f : K6d [x] ∋ p(x) 7−→ x · p(x) ∈ K6d+1 [x]. ◮ Se il Teorema 23.21 può essere applicato, applicalo.  Soluzione. Se abbiamo f p(x) = 0, abbiamo x · p(x) = 0, che può succedere solo se p(x) = 0 ◮; quindi, abbiamo Ker(f ) = {0}. Da to q(x) ∈ K6d+1 [x], se abbiamo f p(x) = q(x), allora abbiamo x · p(x) = q(x), quindi q(x) per il polinomio x; allora q(x) è  è divisibile d+1 d + · · · + a1 x2 + a0 x, ossia abbiamo x ad x + · · · + a1 x + a0 = ad x d+1 2 Im(f ) = Span x , . . . , x , x . Il Teorema 23.21 può essere applicato perché K6d [x] è finitamente dim(K6d[x]) dim(Im(f )) dim(Ker(f )) z }| { z }| { z}|{ 0 + d+1 = d+1 . generato. Abbiamo

c 2014 Gennaro Amendola

Versione 1.0

◮ Esempio 22.7-5.

 ◮ Se p(x) 6= 0, abbiamo deg x · p(x) = 1 +  deg p(x) > 1 (Osservazione 5.31).

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (2010 COMPLEMENTI DI MATEMATICA 23/S2 Nucleo e immagine 1

Sessione di Studio 23.2

Nucleo e immagine

Lezione 23. Nucleo e immagine

23–13

Sessione di Studio 23.2 Esercizio 23.3. Per quali n, d ∈ N \ {0} esiste un’applicazione lineare iniettiva da Rn a R6d [x]? E una surgettiva? E una bigettiva? Quando tali mappe esistono, trovane una. Esercizio 23.4. Per ciascuna delle seguenti matrici n × m A trova il nucleo dell’applicazione lineare associata fA : Km → Kn (scrivendone una base), dove K è il campo indicato.   2 1 1. −1 0 ; R. 3 −1   1 2 4 2.  0 3 3 ; R. −2 1 −3   0 2 4 −2 −1 1 2 −4  3.   0 −1 −2 1 ; R. 2 3 6 3   i 1−i 2 4.  0 2i −1 ; C. 2 + 2i 0 3 − 2i Quali delle mappe sono iniettive? Quali sono bigettive? Esercizio 23.5. Trova l’immagine delle applicazioni lineari dell’Esercizio 23.4 (scrivendone una base) e controlla che la sua dimensione è la stessa di quella ottenuta con il Teorema 23.21. Esercizio 23.6. Per ciascuna delle seguenti matrici n × m A trova l’immagine dell’applicazione lineare associata fA : Km → Kn (scrivendone una base), dove K è il campo indicato.   1 −1 2 0 1. ; R. 1 −1 1 1   0 1 0 0 3; R. 2.  2 −1 −1 1   0 1 −4 −2 0 −2 ; R. 3.  1 1 −3 2 −1 6   i 1 4.  1 −i ; C. 1+i 1−i Quali delle mappe sono surgettive? Quali sono bigettive? Esercizio 23.7. Trova il nucleo delle applicazioni lineari dell’Esercizio 23.6 e controlla che la sua dimensione è la stessa di quella ottenuta con il Teorema 23.21.

c 2014 Gennaro Amendola

Versione 1.0

Lezione 23. Nucleo e immagine

23–14

  2 Esercizio 23.8. Trova la controimmagine del vettore 4 rispetto al0   1 3 −2 −1 l’applicazione lineare fA : R4 → R3 associata alla matrice A = 2 1 1 3 , 0 −1 1 1 con la definizione e con l’Osservazione 23.9.

c 2014 Gennaro Amendola

Versione 1.0

Lezione 23. Nucleo e immagine

23–15

 a1   Risultato dell’Esercizio 23.3. Iniettiva: n 6 d+1. f : Rn ∋  ...  7−→ Corollario 23.24. an ◮ ◮ Visto che n 6 d + 1, allora n − 1 6 d an xn−1 + an−1 xn−2 + · · · + a2 x + a1∈ K [x]. 6d e an xn−1 + an−1 xn−2 + · · · + a2 x + a1 a1 appartiene a K6d+1 [x].   Surgettiva: n > d + 1. f : Rn ∋  ...  7−→ ad+1 xd + ad xd−1 + · · · + 

an

a2 x + a1 ∈ K6d

[x]. ◮

 a1   7 → ad+1 xd + ad xd−1 + · · · + Bigettiva: n = d + 1. f : Rn ∋  ...  − an a2 x + a1 ∈ K6d [x]. ◮

Risultato dell’Esercizio 23.4.    2  2. B =  1  .   −1     0 3         2 −1 ,  . 3. B =  −1  0       0 −1



◮ Iniettiva. 1. B = ∅. ◮

◮ Visto che n = d + 1, la definizione ha senso e la mappa è bigettiva. ◮ ◮ Il nucleo è {02 }, quindi ha solo la base ∅ (Osservazione 14.5).

Questo esercizio non ha un’unica soluzione, quindi il lettore può trovare una soluzione diversa.

Questo esercizio non ha un’unica soluzione, quindi il lettore può trovare una soluzione diversa.

4. B = ∅. ◮ Iniettiva. Bigettiva.

    1   2    Risultato dell’Esercizio 23.5. 1. B = −1 , 0  .   3 −1  dim (Im (fA )) = dim R2 − dim (Ker (fA )) = 2 − 0 = 2.     2   1    0 , 3 . 2. B =   1 −2  dim (Im (fA )) = dim R3 − dim (Ker (fA )) = 3 − 1 = 2.     0 2         −1  1  3. B =  ,  0  −1.      2 3  dim (Im (fA )) = dim R4 − dim (Ker (fA )) = 4 − 2 = 2.       i 1−i 2   4. B =  0  ,  2i  ,  −1  . ◮   2 + 2i 0 3 − 2i  dim (Im (fA )) = dim C3 − dim (Ker (fA )) = 3 − 0 = 3.     1 2 ◮ Surgettiva. Risultato dell’Esercizio 23.6. 1. B = , .◮ 1 1       1 0   0 ◮ 2. B =  2  ,  0  , 3 . ◮ ◮ Surgettiva. Bigettiva.   1 −1 −1 c 2014 Gennaro Amendola

◮ Visto che n > d + 1, la definizione ha senso e la mappa è surgettiva.

Versione 1.0

◮ Il nucleo è {03 }, quindi ha solo la base ∅ (Osservazione 14.5).

Questo esercizio non ha un’unica soluzione, quindi il lettore può trovare una soluzione diversa.

Questo esercizio non ha un’unica soluzione, quindi il lettore può trovare una soluzione diversa.

Questo esercizio non ha un’unica soluzione, quindi il lettore può trovare una soluzione diversa.

Questo esercizio non ha un’unica soluzione, quindi il lettore può trovare una soluzione diversa. ◮ L’immagine è C3 .

Questo esercizio non ha un’unica soluzione, quindi il lettore può trovare una soluzione diversa. 2 ◮ ◮ L’immagine è R .

Questo esercizio non ha un’unica soluzione, quindi il lettore può trovare una soluzione diversa. ◮ 3 ◮ ◮ L’immagine è R .

Lezione 23. Nucleo e immagine

23–16

    0 1         −2 , 0  . 3. B =   1   1       2 −1   i   4. B =  1  .   1+i

Questo esercizio non ha un’unica soluzione, quindi il lettore può trovare una soluzione diversa.

Questo esercizio non ha un’unica soluzione, quindi il lettore può trovare una soluzione diversa.

     1 0          1  , 2 . Risultato dell’Esercizio 23.7. 1. B =  0 1      0 1  dim (Ker (fA )) = dim R4 − dim (Im (fA )) = 4 − 2 = 2.

Questo esercizio non ha un’unica soluzione, quindi il lettore può trovare una soluzione diversa.

◮ Il nucleo è {03 }, quindi ha solo la base ∅ 2. B = ∅. ◮  (Osservazione 14.5). 3 dim (Ker (fA )) = dim R − dim (Im (fA )) = 3 − 3 = 0.    1  Questo esercizio non ha un’unica soluzione, 3. B = −4 .   quindi il lettore può trovare una soluzione −1 diversa.  dim (Ker (fA )) = dim R3 − dim (Im (fA )) = 3 − 2 = 1.   1 4. B = . Questo esercizio non ha un’unica soluzione, −i quindi il lettore può trovare una soluzione  diversa. dim (Ker (fA )) = dim C2 − dim (Im (fA )) = 2 − 1 = 1.       2 − α − 2β    2    α + β       Risultato dell’Esercizio 23.8. PreimfA 4 =   α, β ∈ R. α    0   β       Questo esercizio non ha un’unica soluzione, 2 −2 −1 quindi il lettore può trovare una soluzione 0  1   1   + Span   ,  . diversa. X + Ker (f ) =  0  1   0  1 0 0

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 23/S3 Nucleo e immagine 1

Sessione di Studio 23.3

Nucleo e immagine

Lezione 23. Nucleo e immagine

23–17

Sessione di Studio 23.3 Letture supplementari possono essere le seguenti: • http://it.wikipedia.org/wiki/Trasformazione_lineare#Nucleo_e_immagine

• http://it.wikipedia.org/wiki/Nucleo_(matematica) • http://it.wikipedia.org/wiki/Teorema_del_rango

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 24 Isomorfismi 1

Lezione 24 Isomorfismi

Lezione 24

Isomorfismi In questa lezione studieremo gli isomorfismi, ossia le applicazioni lineari invertibili. Dimostreremo anche che gli spazi vettoriali finitamente generati sullo stesso campo con la stessa dimensione sono equivalenti a meno di isomorfismi.

24.1

Isomorfismi

Proposizione 24.1. Se un’applicazione K-lineare f : V → W è invertibile, la sua inversa f −1 : W → V è un’applicazione K-lineare.

Non daremo la dimostrazione di questa proposizione, anche se non è difficile.     x1 − x2 x1 2 ∈ 7−→ Esempio 24.2. L’applicazione lineare f : R ∋ 2x − x1 x   2  2 2x1 + x2 x1 ∈ 7−→ R2 è invertibile. ◮ La sua inversa è f −1 : R2 ∋ x1 + x2 x2 ◮ che è lineare. R2 , ◮

L’applicazione inversa f −1 dell’applicazione f è definita a prescindere dal fatto che essa sia lineare o non, perché f è invertibile (Definizione 6.22). Dobbiamo dimostrare che, se f è lineare, anche f −1 è lineare.

◮ Esempi 23.8-4 e 23.20-4. ◮ ◮ Abbiamo visto come calcolare l’inversa di una funzione nella Lezione 6.

Definizione 24.3. Un’applicazione lineare invertibile è detta isomorfi- Isomorfismo smo. Un’applicazione lineare invertibile da uno spazio vettoriale in sé stes- Automorfismo so è detta automorfismo.   a1  ..  n Esempio 24.4. 1. Le applicazioni lineari f : R ∋  .  7−→ an xn−1 + an an−1 xn−2 + · · · + a2 x + a1 ∈ K6n−1 [x] for any n ∈ N \ {0} sono ◮ Esercizio 23.3. isomorfismi. ◮ 2. L’applicazione lineare f dell’Esempio 24.2 e la sua inversa f −1 sono automorfismi. 3. La funzione identità idV su uno spazio vettoriale V è un automorfismo. Osservazione 24.5. Sia V uno spazio vettoriale finitamente generato sul campo K, e sia B = {v 1 , v 2 , . . . , v m } una base di V . L’applicazione bigettiva [·]B : V ∋ v 7−→ [v]B ∈ Km , c 2014 Gennaro Amendola

Versione 1.0

Lezione 24. Isomorfismi

24–2

che abbiamo introdotto nell’Osservazione 14.34 e che abbiamo dimostrato essere lineare nell’Osservazione 22.14, è un isomorfismo ◮. Definizione 24.6. Due spazi vettoriali V e W sono detti isomorfi se esiste un isomorfismo f : V → W . In questo caso è usata la notazione V ∼ = W. Esempio 24.7. 1. Ogni spazio vettoriale è isomorfo a sé stesso, ossia ∼ V = V , infatti la funzione idV : V → V è un isomorfismo ◮. 2 L’isomorfismo non è unico:  ad esempio,  per V = R , anche la x1 x1 − x2 funzione f : R2 ∋ 7−→ ∈ R2 è un isomorfismo. ◮. x2 2x2 − x1

2. Fissato n ∈ N\{0}, gli spazi vettoriali Rn e K6n−1 [x] sono isomorfi, ∼ ossia Rn  = K 6n−1 [x] for any n ∈ N \ {0}, infatti l’applicazione a1   f : Rn ∋  ...  7−→ an xn−1 +an−1 xn−2 +· · ·+a2 x+a1 ∈ K6n−1 [x] an è un isomorfismo ◮.

Osservazione 24.8. Siano V e W due spazi vettoriali. Se V è finitamente generato ed è isomorfo a W , allora anche W è finitamente generato e si ha l’uguaglianza dim(V ) = dim(W ). Infatti, esiste un isomorfismo f : V → W (ossia, un’applicazione lineare bigettiva). Abbiamo che Im(f ) è finitamente generato. ◮ Visto che f è surgettiva, abbiamo che anche W è finitamente generato, e quindi dim(V ) = dim(W ). ◮ Kn,n

◮ Non c’è niente da dimostrare: [·]B è un’applicazione lineare ed è invertibile, quindi per definizione è un isomorfismo (Definizione 24.3).

Spazi vettoriali isomorfi Due spazi vettoriali isomorfi sono spazi vettoriali sullo stesso campo, perché il fatto che esiste una applicazione lineare tra essi ci assicura ciò (Definizione 22.1). ◮ Esempio 24.4-3.

◮ Esempio 24.4-2.

◮ Esempio 24.4-1.

◮ Osservazione 23.17. ◮ Corollario 23.24.

Kn

Proposizione 24.9. Sia A ∈ una matrice quadrata e sia fA : → Kn l’applicazione lineare associata. ◮ La matrice A è invertibile se e solo se l’applicazione lineare fA è invertibile. Se esse sono invertibili, si ha l’uguaglianza (fA )−1 = fA−1 .

◮ Definizione 22.20.

L’inversa dell’applicazione lineare associata a una matrice invertibile è l’applicazione lineare associata all’inversa della matrice.

Non daremo la dimostrazione di questa proposizione, anche se non è difficile. Corollario 24.10. L’applicazione lineare fA : Kn → Kn associata alla matrice A ∈ Kn,n è invertibile se e solo se det(A) 6= 0. Dimostrazione. Per la proposizione precedente fA è invertibile, se solo se A è invertibile, e ciò succede se e solo se det(A) 6= 0. ◮ Esempio 24.11. 1. L’applicazione lineare associata alla matrice identità In è la funzione identità idKn : Kn → Kn , ossia fIn = idKn . ◮ Sia In che idRn sono invertibili, e coincidono con la loro inversa ◮, quindi abbiamo (idRn )−1 = f(In )−1 .     x1 x1 − x2 2 2. L’applicazione f : R ∋ 7−→ ∈ R2 è associata x2 2x2 − x1   1 −1 alla matrice 2×2 . Entrambe sono invertibili, e l’inversa −1 2  −1 1 −1 di f è l’applicazione lineare associata alla matrice = −1 2       2 1 x1 2x1 + x2 , infatti f −1 : R2 ∋ 7−→ ∈ R2 . 1 1 x2 x1 + x2 c 2014 Gennaro Amendola

Versione 1.0

◮ Teorema 21.5.

◮ Osservazione 22.22. ◮ (In )−1 = In e (idRn )−1 = idRn .

Lezione 24. Isomorfismi

24–3

Teorema 24.12 (Teorema di isomorfismo). Siano V e W due spazi vettoriali finitamente generati sullo stesso campo K. Allora, si ha V ∼ ⇐⇒ dim(V ) = dim(W ). =W

∼ W e dimostriaDimostrazione. (∗∗) Cominciamo supponendo che V = mo che dim(V ) = dim(W ). Per ipotesi, esiste un isomorfismo f : V → W . In particolare, f è bigettiva, quindi abbiamo dim(V ) = dim(W ). ◮ Viceversa, supponiamo che dim(V ) = dim(W ) e dimostriamo che ∼ V = W . Sia n la dimensione di V e W . Siano BV = {v 1 , v 2 , . . . , v n } ◮ e BW = {w 1 , w 2 , . . . , wn } basi, rispettivamente, di V e W . Esistono ◮ • un’applicazione lineare f : V → W tale che f (v i ) = wi per i = 1, 2, . . . , n, • un’applicazione lineare g : W → V tale che g (wi ) = v i per i = 1, 2, . . . , n. Dimostriamo ora che la composizione g◦f è l’identità su V . Abbiamo g◦ f (v i ) = g (f (vi )) = g (wi ) = vi per i = 1, 2, . . . , n, ma anche idV (v i ) = v i per i = 1, 2, . . . , n; visto che c’è esattamente una applicazione lineare da V a V che lascia fissi i vettori della base BV , abbiamo g ◦ f = idV . ◮ Analogamente, si può dimostrare che la composizione f ◦ g è l’identità su W : lasciamo la dimostrazione al lettore. ◮ Abbiamo quindi che g è l’inversa di f , e quindi f è un isomorfismo tra V e W , ossia V ∼ = W. Osservazione 24.13. Se consideriamo il caso in cui W = Kn , e se scegliamo una base BV = {v 1 , v 2 , . . . , v n } di V e la base canonica En = {e1 , e2 , . . . , en } di Kn , otteniamo l’applicazione lineare [·]B : V → Kn , ◮ che abbiamo visto essere un isomorfismo. ◮ Infatti, abbiamo [v i ]B = ei per i = 1, 2, . . . , n ◮.

Teorema di isomorfismo Due spazi vettoriali sullo stesso campo sono isomorfi se e solo se hanno la stessa dimensione. Il fatto che due spazi vettoriali sullo stesso campo hanno la stessa dimensione non ci assicura che i due spazi sono uguali, ma ci assicura che sono isomorfi. Nel Corollario 15.27 abbiamo dimostrato che, aggiungendo l’ipotesi che uno dei due spazi vettoriali è contenuto nell’altro, possiamo dedurre che i due spazi vettoriali sono uguali. Qui non abbiamo questa ipotesi, e quindi possiamo dedurre solo che sono isomorfi. ◮ Corollario 23.24. ◮ ◮ Proposizione 22.12.

◮ Proposizione 22.12. ◮ Questi due isomorfismi dipendono dalle basi. Se le basi cambiano, i due isomorfismi cambiano.

◮ Osservazione 22.14. ◮ Osservazione 24.5. ◮ Osservazione 14.32-1.

Corollario 24.14. Uno spazio vettoriale su un campo K ha dimensione n se e solo se esso è isomorfo a Kn . Dimostrazione. Lo spazio vettoriale Kn è finitamente generato e ha dimensione n. Se uno spazio vettoriale V sul campo K è isomorfo a Kn , anche V è finitamente generato e si ha dim(V ) = n. ◮ Viceversa, se uno spazio vettoriale V sul campo K ha dimensione n, esso è finitamente generato e per il Teorema di isomorfismo ◮ abbiamo V ∼ = Kn .

c 2014 Gennaro Amendola

Versione 1.0

◮ Remark 24.8. ◮ Teorema 24.12.

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 24/S1 Isomorfismi 1

Sessione di Studio 24.1

Isomorfismi

Lezione 24. Isomorfismi

24–4

Sessione di Studio 24.1  Esercizio 24.1. Gli spazi vettoriali W = X ∈ R4 x1 + x2 − x3 = 0, x2 + 2x3 + x4 = 0 e R2 sono isomorfi? Se lo sono, definisci un isomorfismo da W a R2 .  Soluzione. Sì, perché dim(W ) = 2 = dim R2 ◮, il Teorema di isomor- ◮ Abbiamo visto come calcolare le dimensioni nella Lezione 12. 2. ◮ implica che W ∼ fismo ◮ =R     ◮ ◮ Teorema 24.12. 3 1          −2 −1 ◮ 2 , visto come trovare una base di Una base di W è B =   1   0  , mentre una base di R è ◮ Abbiamo  uno spazio vettoriale nella Lezione 14.     0 1 E = {e1 , e2 }, quindi l’isomorfismo W → R2 può essere definito sulla   f : 3 1 −2 −1    ◮ ◮ L’applicazione è [·]B : W → R2 (Osservabase B essere f   1  = e1 e f  0  = e2 . zione 24.13). 0 1 Esercizio 24.2.  1  ciata a A = 0 3

Dimostrache l’applicazione lineare fA : R3 → R3 asso−1 2 2 −1 è invertibile. Trova l’applicazione inversa. 0 2

Soluzione. Applichiamo la Proposizione 24.9. Abbiamo det(A) = −5 6= 0, allora A, equindi fA , è invertibile. Inoltre, abbiamo (fA )−1 = fA−1 ,  dove A−1

  = 

− 45 3 5

6 5

− 52 4 5 3 5

3 5

  − 51 . ◮  − 52

◮ Abbiamo visto come calcolare l’inversa di una matrice nella Lezione 21.

2 2 Esercizio  24.3. L’applicazione lineare fA : R → R associata a A = 1 2 è invertibile? −1 −2 Il dominio e il codominio di fA sono isomorfi?

Soluzione. No, perché det(A) = 0. ◮ Sì, perché sono lo stesso spazio vettoriale. ◮

c 2014 Gennaro Amendola

◮ Proposizione 24.9. ◮ Esempio 24.7-1.

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 24/S2 Isomorfismi 1

Sessione di Studio 24.2

Isomorfismi

Lezione 24. Isomorfismi

24–5

Sessione di Studio 24.2 Esercizio 24.4. Per ciascuna delle seguenti matrici n × m A considera l’applicazione lineare associata fA : Rm → Rn . Quali fA sono isomorfismi?   2 0 1. −1 3. −1 2   0 1 2. . −3 1   2 3 −2 3. 0 2 −4. 3 2 1   1 0 2 −1 3 −1 2 0   4.  0 2 1 1 . 1 0 0 1   3−i 5 5. . 2 3+i   i 3i −1 6.  0 1 −i . 3 − 2i 2 − i 1 Esercizio 24.5. Quali dei seguenti spazi vettoriali sono isomorfi? 1. V 1 = R2 .  2. V 2 = X ∈ R3 x1 + 2x2 − 3x3 = 0, x2 − 2x3 = 0 .     3 2 3. V 3 = Span 1 , 1 ⊂ R3 . 0 0 4. V 4 = C3 .



 0 −1   5. V 5 = Span   0 . 1  6. V 6 = X ∈ C4 x1 + ix2 = 0 . 7. V 7 = R61 [x].

8. V 8 = {03 }.

c 2014 Gennaro Amendola

Versione 1.0

Lezione 24. Isomorfismi

24–6

Risultato dell’Esercizio 24.4. 1. No. 2. Sì. 3. Sì. 4. No. 5. No. 6. Sì. Risultato dell’Esercizio 24.5. V 1 ∼ =V3 ∼ = V 7. V 2 ∼ = V 5. V 4 ∼ = V 6.

V 8.

c 2014 Gennaro Amendola

Versione 1.0

Calcola le dimensioni e applica il Teorema di isomorfismo (Teorema 24.12): stai attento al campo.

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 24/S3 Isomorfismi 1

Sessione di Studio 24.3

Isomorfismi

Lezione 24. Isomorfismi

24–7

Sessione di Studio 24.3 Letture supplementari possono essere le seguenti: • http://it.wikipedia.org/wiki/Trasformazione_lineare

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 25 Applicazioni lineari e matrici 1

Lezione 25 Applicazioni lineari e matrici

Lezione 25

Applicazioni lineari e matrici In questa lezione vedremo come sono legate le applicazioni lineari tra spazi vettoriali finitamente generati e le matrici. Vedremo come associare una matrice a una tale applicazione lineare, a condizione che siano date basi per il dominio e per il codominio, e studieremo questa associazione.

25.1

Matrice associata a un’applicazione lineare

In questa sezione considereremo solamente spazi vettoriali finitamente generati. Definizione 25.1. Sia f : V → W un’applicazione K-lineare tra due spazi vettoriali finitamente generati, con dim(V ) = m e dim(W ) = n. Siano BV una base di V e BW una base di W . L’applicazione lineare −1 : Km → Kn , [·]BW ◦ f ◦ [·]B V K

m

[·]−1 B

f

Matrice associata ad un’applicazione lineare Le definizioni e le proprietà di [·]· sono rispettivamente nella Definizione 14.30 e nelle Osservazioni 14.34, 22.14 e 24.5.

[·]B

W −−−−−V−−→ V −−−−−−−→ W −−−−− −−→ Kn ,

è l’applicazione lineare fA associata ad una e una sola matrice A ∈ Kn,m ◮. La matrice A è detta matrice associata all’applicazione lineare f rispetto alle basi BV (nel dominio) e BW (nel codominio), ed è indicata con

◮ Proposizione 22.25.

[·]··

W [f ]B BV .

W Osservazione 25.2. La matrice [f ]B BV dipende, oltre che dall’applicazione lineare f , solo dalle basi BV e BW . W L’unico caso in cui la matrice [f ]B BV non dipende nemmeno dalle basi BV e BW è quello in cui f è l’applicazione nulla. Infatti, in questo caso W fA è l’applicazione nulla e quindi [f ]B BV = 0n,m per tutte le basi BV e BW .

Osservazione 25.3. La situazione può essere schematizzata come segue f

V −−−−→  [·]B  V y fA

W  [·] y BW

Km −−−−→ Kn W dove A = [f ]B BV . Nel diagramma, le due applicazioni verticali sono isomorfismi ◮. Inoltre il diagramma è commutativo, ossia le due applicac 2014 Gennaro Amendola

Versione 1.0

◮ Osservazione 24.13.

Lezione 25. Applicazioni lineari e matrici

25–2

zioni, [·]BW ◦ f e fA ◦ [·]BV , da V a Kn coincidono. Ciò può essere anche scritto in una forma più utile: W [f (v)]BW = [f ]B BV · [v]BV

∀v ∈ V .

Osservazione 25.4. Consideriamo il caso in cui V = Km e W = Kn , in cui l’applicazione lineare f è l’applicazione lineare fA associata ad una matrice A ∈ Kn,m , e in cui le basi sono quelle canoniche, Em di V e En di W . Allora abbiamo [fA ]EEnm = A. Infatti, in questo caso, per l’Osservazione 14.32-3, abbiamo [·]Em = idKm e [·]En = idKn . Quindi, la composizione è

f

A Km −−−− −→   [·]Em y

f

Kn  [·] y En

A Km −−−− −→ Kn

[·]En ◦ fA ◦ [·]−1 Em = idKn ◦ fA ◦ idKm = fA ,

che è l’applicazione lineare associata proprio alla matrice A. Sia f : V → V un endomorfismo di uno spazio vettoriale finitamente generato. Anche se possiamo scegliere due basi diverse B e B ′ di V e usare la matrice associata all’endomorfismo f rispetto alle basi B nel dominio e B ′ nel codominio, non ha molto senso fare ciò. Ha più senso considerare una sola base B di V e usare la matrice associata all’endomorfismo f rispetto alle basi B nel dominio e B nel codominio. Quindi, useremo la seguente notazione. Notazione 25.5. Sia f : V → V un endomorfismo di uno spazio vettoriale finitamente generato. Sia B una base di V . La matrice [f ]B B è detta matrice associata all’endomorfismo f rispetto alla base B (nel dominio e nel codominio). Algoritmo 25.6 (Calcolo della matrice associata ad un’applicazione lineare). Sia f : V → W un’applicazione lineare tra due spazi vettoriali finitamente generati, e siano BV = {v 1 , v 2 , . . . , v m } e BW = {w1 , w 2 , . . . , wn } basi rispettivamente di V e W . L’algoritmo consiste di m passi, uno per ogni vettore di BV . Ad ogni passo produce una colonna della matrice. Al passo i-esimo si fanno le seguenti operazioni. 1. Si considera l’immagine f (v i ) del vettore v i rispetto a f . 2. Si calcola il vettore delle coordinate del vettore f (v i ) ∈ W rispetto alla base BW ,   a1i  a2i    [f (v i )]BW =  .  .  .. 

Ossia, Ossia usare la stessa base sia nel dominio che nel codominio.

Matrice associata a un endomorfismo

Algoritmo di calcolo della matrice associata ad un’applicazione lineare

ani

W 3. Il vettore colonna trovato è la i-esima colonna della matrice [f ]B BV .   a1 2 Esempio 25.7. 1. Consideriamo l’applicazione lineare f : R ∋ 7−→ a2 3 − (a + a ) x + a ∈ R [x]. Consideriamo le basi B = a 1x  2 63 e   1 2  2 1 , di R2 e Bpol = x3 , x2 − x, x2 , 1 di R63 [x]. Per 1 1 calcolare la matrice associata ad f rispetto alle basi Be in R2 e Bpol in R63 [x], facciamo i seguenti passi.

c 2014 Gennaro Amendola

Versione 1.0

Lezione 25. Applicazioni lineari e matrici

25–3

Passo 1. Consideriamo il primo elemento della base Be , calcoliamo   2 la sua immagine f = 2x3 − 3x + 1 e calcoliamo il 1 suo vettore delle coordinate rispetto alla base Bpol , ossia   2    3 2 ◮ f = −3. 1 B pol 1 Passo 2. Consideriamo il secondo della base Be , calcolia  elemento 1 3 = x − 2x + 1 e calcoliamo il mo la sua immagine f 1 suo vettore delle coordinate rispetto alla base Bpol , ossia   1    2 1 ◮ = f −2. 1 B pol 1 La matrice è   2 1 3 2 B  = [f ]Bpol −3 −2 . e 1 1

3 2 2. Consideriamo l’applicazione lineare   fA : R → R associated to 2 1 −1 the matrix A = . Consideriamo le basi B2 = −2 −1 1           −2 0   1 2 −1 3 0 ,  1  , 0 di R e B2 = , di R2 . Per 1 −1   1 0 1 calcolare la matrice associata ad fA rispetto alle basi B3 in R3 e B2 in R2 , facciamo i seguenti passi. Passo 1. Consideriamo il primo della   base B3 , calcoliamo  elemento    1 1 1 la sua immagine fA 0 = A · 0 = e calcolia−1 1 1 mo il suo  vettore delle coordinate rispetto alla base B2 ,    1 2 ◮ ossia fA 0 = . 3 1 B2 Passo 2. Consideriamo il secondo elemento base  B3 , calcolia  della    −2 −2 −3     mo la sua immagine fA 1 = A· 1 = 3 0 0 e calcoliamo ilsuo  vettore  delle coordinate rispetto alla   −2 −6 ◮     base B2 , ossia fA 1 = . −9 0 B2 Passo 3. Consideriamo il terzo elemento della     base B3 , calcoliamo   0 0 −1     la sua immagine fA 0 = A · 0 = e calcolia1 1 1 c 2014 Gennaro Amendola

Versione 1.0

◮ Abbiamo visto come trovare il vettore delle coordinate nella Lezione 14.

◮ Abbiamo visto come trovare il vettore delle coordinate nella Lezione 14.

◮ Abbiamo visto come trovare il vettore delle coordinate nella Lezione 14.

◮ Abbiamo visto come trovare il vettore delle coordinate nella Lezione 14.

Lezione 25. Applicazioni lineari e matrici

25–4

mo il suo  vettore  delle coordinate rispetto alla base B2 ,   0 −2 ◮ ossia fA 0 = . −3 1 B

◮ Abbiamo visto come trovare il vettore delle coordinate nella Lezione 14.

2

La matrice è

2 [fA ]B B3 =





2 −6 −2 . 3 −9 −3

D’altro canto, la matrice associata ad fA rispetto alle basi canoniche E3 in R3 e E2 2 in R2 è [fA ]E E = A (Osservazione 25.4). 3

Osservazione 25.8. Qualunque siano lo spazio vettoriale finitamente generato V di dimensione n e la sua base B, abbiamo [idV ]B B = In . Infatti, per i = 1, 2, . . . , n, il vettore delle coordinate [f (v i )]B = [v i ]B = ei ◮ è l’i-esimo vettore della base canonica. Proposizione 25.9. L’algoritmo di calcolo della matrice associata ad un’applicazione lineare f : V → W rispetto alle basi BV di V e BW di W W (Algoritmo 25.6) produce proprio la matrice [f ]B BV .

◮ Osservazione 14.32-1.

We should prove that the result of the algorithm is as a matter of fact the desired matrix.

Non daremo la dimostrazione di questa proposizione, anche se non è difficile.

Teorema 25.10. Siano V e W due spazi vettoriali finitamente generati sul campo K, con dim(V ) = m e dim(W ) = n. Siano BV una base di V e BW una base di W . L’applicazione BW n,m W [·]B BV : Lin (V , W ) ∋ f 7−→ [f ]BV ∈ K

è un isomorfismo.

Non daremo la dimostrazione di questo teorema, anche se non è difficile. Corollario 25.11. Siano V e W due spazi vettoriali finitamente generati sul campo K, con dim(V ) = m e dim(W ) = n. La dimensione di Lin (V , W ) è m · n. Dimostrazione. Per il teorema precedente abbiamo Lin (V , W ) ∼ = Kn,m . Applicando il Teorema di isomorfismo ◮ e poi la Proposizione 17.13, otteniamo dim (Lin (V , W )) = dim (Kn,m ) = n · m. Proposizione 25.12. Siano f : V → W e g : W → U applicazioni lineari tra spazi vettoriali finitamente generati. Siano BV , BW e BU basi rispettivamente di V , W e U . Allora si ha l’uguaglianza BW BU U [g ◦ f ]B BV = [g]BW · [f ]BV .

Non daremo la dimostrazione di questa proposizione, anche se non è difficile. Proposizione 25.13. Sia f : V → W un isomorfismo tra due spazi vettoriali finitamente generati. Siano BV e BW basi rispettivamente di V e W . Allora si ha l’uguaglianza  −1  −1 BV BW f = [f ] . BV B W

Non daremo la dimostrazione di questa proposizione, anche se non è difficile.

c 2014 Gennaro Amendola

Versione 1.0

dim (Lin (V , W )) = dim(V ) · dim(W ).

◮ Teorema 24.12.

Lezione 25. Applicazioni lineari e matrici

25.2

25–5

Relazioni tra il rango di applicazioni lineari e di matrici

Vedremo ora che i due concetti di rango (di un’applicazione lineare e di una matrice) sono in realtà legati tra loro. Lemma 25.14. Se A ∈ Kn,m , si ha l’uguaglianza rank (fA ) = rank(A). Dimostrazione. Abbiamo che  • rank A = dim Span A1 , A2 , . . . , Am ◮,

◮ Proposizione 20.9.

• Im (fA ) = Span (fA (e1 ) , fA (e2 ) , . . . , fA (em )) ◮,  • Im (fA ) = Span A1 , A2 , . . . , Am ◮.  Quindi, abbiamo che rank (fA ) = dim Span A1 , A2 , . . . , Am , ossia la tesi.

◮ Osservazione 23.17. ◮ Osservazione 23.17.

Proposizione 25.15. Sia f : V → W un’applicazione lineare tra due spazi vettoriali finitamente generati. Allora si ha l’uguaglianza   W , rank(f ) = rank [f ]B BV

qualsiasi siano le basi BV di V e BW di W .

Non daremo la dimostrazione di questa proposizione, anche se non è difficile. Esempio 25.16. Consideriamo le applicazioni lineari e le matrici associate dell’Esempio 25.7. 1. Il rango dell’applicazione lineare f è 2, perché il rango della matrice   2 1 3 2 B   = [f ]Bpol −3 −2 e 1 1 è 2.

2. Il rango dell’applicazione lineare fA è 1, perché il rango della matrice   2 −6 −2 B2 [fA ]B3 = 3 −9 −3 è 1.

c 2014 Gennaro Amendola

Versione 1.0

2 Anche il rango della matrice [fA ]E E3 = A è 1.

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 25/S1 Applicazioni lineari e matrici 1

Sessione di Studio 25.1

Applicazioni lineari e matrici

Lezione 25. Applicazioni lineari e matrici

25–6

Sessione di Studio 25.1 Esercizio 25.1. 1. Trova una base B dello spazio vettoriale V = {X ∈ R3 | x2 − x3 = 0}.   x1 2. Trova la matrice associata all’applicazione lineare f : V ∋ x2  7−→ x3   x1 + 3x2 − x3 ∈ R2 rispetto alle basi B in V e E2 in R2 . x2 − 2x1 3. Trova il rango di f .

4. f è un isomorfismo? Soluzione.

    0   1    1. Una base è B = 0 , 1 . ◮   1 0

◮ Abbiamo visto come trovare una base di uno spazio vettoriale nella Lezione 14.

2. Facciamo i seguenti passi.

Passo 1. Consideriamo il primo elemento della base B, calcolia    1 1 mo la sua immagine f 0 = e calcoliamo il −2 0 suo vettore delle coordinate rispetto alla base E2 , ossia      1 f 0 = 1 . ◮ −2 0 E2 Passo 2. Consideriamo il secondo elemento della base B, calco    0 2   e calcoliamo il liamo la sua immagine fA 1 = 1 1 suo  delle coordinate rispetto alla base E2 , ossia  vettore   0 f 1 = 2 . ◮ 1 1 E

◮ Abbiamo visto come trovare il vettore delle coordinate nella Lezione 14.

◮ Abbiamo visto come trovare il vettore delle coordinate nella Lezione 14.

2

La matrice è [f ]EB2

=



 1 2 . −2 1

3. Il rango di f è uguale al rango di

[f ]EB2

=



1 2 −2 1



◮,

che è 2.

4. Sì, perché è surgettiva ◮ e la dimensione del dominio è uguale alla ◮ ◮, quindi è bigettiva. ◮ dimensione del codominio ◮ ◮ Esercizio 25.2. Trova il rango  1  associata alla matrice A = −1 0

4 3 dell’applicazione  lineare fA : R → R 0 3 −1 2 −1 0 . 2 2 4

Soluzione. Il rango di fA è uguale al rango di A ◮, che è 3.

c 2014 Gennaro Amendola

Versione 1.0

◮ Proposizione 25.15. ◮ Il rango di f è uguale alla dimensione del codominio R2 (Proposizione 23.19). ◮ ◮ Entrambe sono 2. ◮ Corollario 23.25. ◮ ◮

◮ Lemma 25.14.

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

#corso# INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA #insegnamento# 25/S2 #lezione# Applicazioni #titolo# lineari e matrici 1 #attività#

Sessione di Studio 25.2

Applicazioni lineari e matrici

Lezione 25. Applicazioni lineari e matrici

25–7

Sessione di Studio 25.2 1. Scegli una base B di R62 [x], e scrivi la  matrice  p(1) associata all’applicazione lineare f : R62 [x] ∋ p(x) 7−→ ∈ p(0) R2 rispetto alle basi B in R62 [x] e E2 in R2 .

Esercizio 25.3.

2. Trova il rango di f .

3. f è un isomorfismo? Esercizio  25.4. Datol’endomorfismo fA : R3 → R3 associato alla ma1 1 −1 trice A = 2 0 −1, scrivi la matrice associata ad fA rispetto alla 1 3 −2        1 1   0      1 , 1 , 0 in R3 . base B =   −1 2 0

Esercizio 25.5. Sia BV una base di uno spazio vettoriale finitamente generato V , e sia BW una base di uno spazio vettoriale finitamente gene  4 2 −1 W 0 1 −4. rato W . Sia f : V → W l’isomorfismo tale che [f ]B BV = 2 0 3 Scrivi la matrice associata all’applicazione lineare inversa f −1 rispetto alle basi BW di W e BV di V .

Esercizio 25.6. Sia BV una base di uno spazio vettoriale finitamente generato V , sia BW una base di uno spazio vettoriale finitamente generato W , e sia BU una base di uno spazio vettoriale finitamente  generato  2 −1 W 2 0 . U . Sia f : V → W l’applicazione lineare tale che [f ]B BV = 3 −1   1 0 1 2 1 −1 U .  Sia g : W → U l’applicazione lineare tale che [g]B BW = 1 3 3 1 1 0 Scrivi la matrice associata all’applicazione lineare composizione g ◦ f rispetto alle basi BV di V e BU di U .

3 2 Esercizio 25.7. Data  l’applicazionelineare fA : C → C associata 1 i −1 + i alla matrice A = , scrivi la matrice associata ad −1 −i 1       0 i 0   fA rispetto alle basi B =  0  , 1 , 2 in C3 e B =   −1 − i 0 0     1 i , in C2 . Trova il rango di fA . −1 0

c 2014 Gennaro Amendola

Versione 1.0

Lezione 25. Applicazioni lineari e matrici

 1. B = x2 , x, 1 ; [f ]EB2 =

Risultato dell’Esercizio 25.3. 2. 2. 3. No. Risultato dell’Esercizio 25.4.

Risultato dell’Esercizio 25.5.

Risultato dell’Esercizio 25.6.

Risultato dell’Esercizio 25.7.

c 2014 Gennaro Amendola

25–8 

 1 1 1 . 0 0 1



 −1 0 1  2 0 1. 0 0 0   3 7 −2 3 2  4 −7 −8. 1 −2 −2   5 −2  3 −1   17 −4. 4 −1   1 + i 2i 2i . −1 − i 0 0

Notazione 25.5.

Proposizione 25.13.

Proposizione 25.12.

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 25/S3 Applicazioni lineari e matrici 1

Sessione di Studio 25.3

Applicazioni lineari e matrici

Lezione 25. Applicazioni lineari e matrici

25–9

Sessione di Studio 25.3 Letture supplementari possono essere le seguenti: • http://it.wikipedia.org/wiki/Trasformazione_lineare#Matrice_associata

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 26 Cambiamenti di base 1

Lezione 26 Cambiamenti di base

Lezione 26

Cambiamenti di base In questa lezione ci occuperemo dei cambamenti di base. Vedremo come cambiano le coordinate di un vettore se cambia la base. Definiremo anche il determinante di un endomorfismo di uno spazio vettoriale finitamente generato.

26.1

Cambiamenti di base

Siano B = {v 1 , v 2 , . . . , v n } e B ′ = {v ′1 , v ′2 , . . . , v ′n } due basi di uno spazio vettoriale finitamente generato V . Sia v un vettore di V . Cerchiamo di capire il legame tra le coordinate λ1 , λ2 , . . . , λn di v rispetto alla base B e le coordinate λ′1 , λ′2 , . . . , λ′n di v rispetto alla base B ′ . Ossia, cerchiamo un modo per ottenere le coordinate λ′1 , λ′2 , . . . , λ′n di v rispetto alla base B ′ dalle coordinate λ1 , λ2 , . . . , λn di v rispetto alla base B. Proviamo a fare un conto esplicito. Abbiamo che v = λ1 v 1 + λ2 v 2 + · · · + λ n v n .

Scriviamo ogni v i (per i = 1, 2, . . . , n) come il risultato di una combinazione lineare dei vettori della base B ′ , vi = a1i v ′1 + a2i v ′2 + · · · + ani v ′n ,

e sostituiamoli nell’equazione sopra, n X  λi a1i v ′1 + a2i v ′2 + · · · + ani v ′n = v= =

i=1 n X i=1

λi a1i

!

v ′1

+

n X i=1

λi a2i

!

v ′2

Quindi, otteniamo la formula esplicita n X ′ λi aji per j = 1, 2, . . . , n, λj =

+ ··· +

n X i=1

λi ani

!

v ′n .

i=1

che in forma vettoriale diventa     ′  1 λ1 a1 a21 · · · an1 λ1  λ′   a1 a2 · · · an   λ2  2   2  2  2  ..  =  .. ..  ·  ..  . .. . .  .  . . .  .  . 2 1 ′ λn an an · · · ann λn c 2014 Gennaro Amendola

Versione 1.0

Lezione 26. Cambiamenti di base

26–2

Osservazione 26.1. La costruzione fatta sopra è la stessa di quella del calcolo della matrice associata ad un’applicazione lineare ◮, dove l’applicazione lineare è l’identità idV e le basi sono B nel domino e B ′ nel codominio. Infatti, se rivediamo il procedimento, abbiamo fatto n passi (uno per ogni vettore di B), all’i-esimo dei quali abbiamo fatto le seguenti operazioni: 1. Abbiamo considerato il vettore v i , che può essere pensato come l’immagine idV (v i ) del vettore v i stesso rispetto all’applicazione lineare idV .

◮ Algoritmo 25.6.

2. Abbiamo calcolato il vettore delle coordinate del vettore v i = idV (vi ) rispetto alla base B ′ ,  i a1  ai   2 [v i ]B′ =  .  .  ..  ain

3. Il vettore che abbiamo trovato è la i-esima colonna della matrice costruita. La matrice costruita è quindi la matrice ′ [idV ]B B

.

Definizione 26.2. Siano B e B ′ due basi di uno spazio vettoriale finitamente generato V . La matrice [id]B B



è detta matrice di cambiamento di base da B a B ′ .

Osservazione 26.3. Abbiamo che ◮ [v]B′ =

′ [id]B B

Non è necessario indicare lo spazio vetto′ riale V utilizzando la notazione [idV ]B B , ′ perché B e B sono basi di V . ◮ Abbiamo che id(v) = v, quindi [v]B′ = [id(v)]B′ .

· [v]B .

        1 −1 1 2 ′ Esempio 26.4. Siano B = , e B = , due 2 −4 1 3 basi di R2 . Se scriviamo il  vettore del primo vettore di B   dellecoordinate −1 1 = , e il vettore delle coordinate rispetto alla base B ′ , ossia 1 2 B′     5 −1 = , del secondo vettore di B rispetto alla base B ′ , ossia −3 −4 B′ otteniamo la matrice di cambiamento di base da B a B ′ , che è   ′ −1 5 = . [id]B B 1 −3     2 1 2 , quindi ∈ R . Abbiamo [X]B = Consideriamo X = 1 0 abbiamo      3 2 −1 5 . = [X]B′ = −1 1 1 −3 Osservazione 26.5. Se abbiamo V = Kn , e se la seconda base è la base canonica En , la matrice [id]EBn di cambiamento di base da B a En è semplice da calcolare. Infatti, il vettore delle coordinate del vettore v i rispetto alla base En è precisamente v i . ◮ Quindi, la matrice [id]EBn ha come colonne precisamente i vettori colonna v i della base B. c 2014 Gennaro Amendola

Questo è l’unico caso in cui facciamo un’eccezione alla Notazione 25.5, infatti stiamo usando basi diverse nel dominio e nel codominio per l’endomorfismo idV . Matrice di cambiamento di base

Versione 1.0

Abbiamo visto come trovare il vettore delle coordinate nella Lezione 14.

◮ Osservazione 14.32-3.

Lezione 26. Cambiamenti di base

26–3

      1 2   0 Esempio 26.6. Sia B = 3 , −1 , 0 una base di R3 . La   1 0 1 matrice di cambiamento di base da B a E3 è   0 1 2 [id]EB3 = 3 −1 0 . 1 0 1 −1  B′ Osservazione 26.7. Abbiamo [id]B = [id] . Infatti, abbiamo ◮ ′ B B ′

B B [id]B B′ · [id]B = [id]B = In



◮ Proposizione 25.12 and Remark 25.8.



B B [id]B B · [id]B′ = [id]B′ = In .

e

Esempio 26.8. Consideriamo le basi e la matrice di cambiamento di base dell’Esempio 26.4. Abbiamo che la matrice di cambiamento di base da B ′ a B è −1 −1 5 −1  3 5   B′ B = 12 21 . = [id]B′ = [id]B 1 −3 2 2

Osservazione 26.9. Se abbiamo V = Kn , e se la prima base è la base canonica En , la matrice [id]B En di cambiamento di base da En a B non è −1  En ◮, e la matrice difficile da calcolare. Infatti, abbiamo [id]B = [id] En B

◮ Osservazione 26.7.

[id]EBn ha come colonne precisamente i vettori colonna v i della base B. ◮

◮ Osservazione 26.5.

Osservazione 26.11. Ogni matrice B ∈ Kn,n con det(B) 6= 0 è una matrice di cambiamento di base. Infatti, i vettori colonna, B 1 , B 2 , . . . , B n , ◮ , e quindi sono anche generatori di di B, sono linearmente indipendenti  1 2 n ◮ K ◮. Abbiamo che B = B , B , . . . , B n è una base di Kn , e quindi ◮ che B = [id]EBn ◮ ◮.

◮ Teorema 20.1.

Esempio 26.10. Consideriamo la base e la matrice di cambiamento di base dell’Esempio 26.6. Abbiamo che la matrice di cambiamento di base da E3 a B è  −1   0 1 2 1 1 −2 −1  E3 = 3 −1 0 =  3 [id]B 2 −6 . E3 = [id]B 1 0 1 −1 −1 3

Proposizione 26.12. Sia f : V → W un’applicazione lineare tra due spazi vettoriali finitamente generati. Siano BV e BV′ due basi di V , e ′ siano BW e BW due basi di W . Allora si ha l’uguaglianza B′

B′

BV W · [f ]B = [id]BW [f ]BW ′ BV · [id]B′ . W V

V

Non daremo la dimostrazione di questa proposizione, anche se non è difficile. Corollario 26.13. Sia f : V → V un endomorfismo di uno spazio vettoriale finitamente generato. Siano BV e BV′ due basi di V . Allora si ha l’uguaglianza −1  B′ BV V V · [f ]B [f ]BV′ = [id]B ′ BV · [id]B′ . B V

V

V

Non daremo la dimostrazione di questo corollario, anche se non è difficile.

c 2014 Gennaro Amendola

Versione 1.0

◮ ◮ Corollario 15.26. ◮ ◮ ◮ Osservazione 26.5.

Lezione 26. Cambiamenti di base

26–4

Teorema 26.14. Dato un endomorfismo di uno spazio vettoriale finitamente generato, tutte le matrici associate ad esso sono simili ◮ tra loro.

◮ Definizione 17.46.

Non daremo la dimostrazione di questo teorema, anche se non è difficile. Corollario 26.15. Dato un endomorfismo di uno spazio vettoriale finitamente generato, tutte le matrici associate ad esso hanno lo stesso determinante. Non daremo la dimostrazione di questo corollario, anche se non è difficile. Attraverso il corollario precedente possiamo definire il determinante di un endomorfismo. Definizione 26.16. Sia f : V → V un endomorfismo di uno spazio vettoriale finitamente generato. Sia B una base di V . Il determinante della matrice [f ]B B associata all’endomorfismo f rispetto alla base B è detto determinante dell’endomorfismo f , ed è indicato con

Determinante di un endomorfismo

det

det(f ). Osservazione 26.17. Come detto nella Notazione 25.5, usiamo la matrice associata alla stessa base nel dominio e nel codominio. Nel nome “determinante di un endomorfismo” non compare la base usata per la definizione, infatti per il corollario precedente la definizione non dipende dalla base scelta. Esempio 26.18. Consideriamo l’endomorfismo f : R62 [x] ∋ p(x) 7−→ p(1)x2 + p(0)x + p(2) ∈ R62 [x] .  Consideriamo la base B = x2 , x, 1 di R62 [x]. Il determinante dell’endomorfismo f è ◮   1 1 1  = 2.  det(f ) = det [f ]B B = det 0 0 1 4 2 1

Proposizione 26.19. Un endomorfismo di uno spazio vettoriale finitamente generato è invertibile, se e solo se il suo determinante è diverso da 0. Non daremo la dimostrazione di questa proposizione, anche se non è difficile. Esempio 26.20. L’endomorfismo f dell’Esempio 26.18 è invertibile perché det(f ) = 2 è diverso da 0.

c 2014 Gennaro Amendola

Versione 1.0

◮ Per quanto riguarda la matrice [f ]B B , le immagini degli elementi della base B sono rispettivamente x2 + 4, x2 + 2 e x2 + x + 1. Abbiamo visto come trovare la matrice associata a un’applicazione lineare nella Lezione 25.

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 26/S1 Cambiamenti di base 1

Sessione di Studio 26.1

Cambiamenti di base

Lezione 26. Cambiamenti di base

26–5

Sessione di Studio 26.1 Esercizio 26.1. Siano B, mente generato   V . Date 1 2 −1 ′′ 2 3 1  e [id]B B′ = 3 −1 4 ′′ mento di base [id]B B .

B ′ e B ′′ basi di uno spazio vettoriale finitaB′ le matrici di cambiamento di base [id] B =   1 3 1 2 −3 5, calcola la matrice di cambia2 −3 1

Soluzione. Abbiamo che la composizione della funzione identità idV ◦ ′′ B′ ◮ B′′ idV è la funzione identità idV , quindi abbiamo [id]B B = [id]B′ · [id]B . Quindi, la matrice di cambiamento di base è       1 3 1 1 2 −1 10 10 6 ′′ 2 −3 5 · 2 3 [id]B 1  =  11 −10 15  . B = 2 −3 1 3 −1 4 −1 −6 −1

◮ Proposizione 25.12.

Esercizio 26.2. Considera lo spazio vettoriale  V = X ∈ R4 x1 − x2 + 2x3 + x4 = 0, 2x1 − 2x2 + 4x3 − x4 = 0     x1 2x2 − 2x1  x2     7−→  x1 + x2  ∈ V . e l’applicazione lineare f : V ∋   x3  2x1 − x2 + x3  x4 x4 1. Dimostra che l’applicazione è ben definita, ossia che i vettori f (X) appartengono a V per ogni X ∈ V . 2. f è un endomorfismo?

3. Calcola il determinante di f . 4. f è invertibile?

     1 −2          1  ,  0  . ◮ Abbiamo Soluzione. 1. Una base di V è B =     1    0    0 0         1 0 −2 4 1 2  0  −2        f 0 = 1 ∈ V and f  1  = −3 ∈ V , quindi f è ben 0 0 0 0 ◮ definita.

◮ Abbiamo visto come trovare una base di uno spazio vettoriale nella Lezione 14.

◮ Proposizione 22.12.

2. Sì, perché il dominio e il codominio coincidono. 3. La matrice  matrice associata all’endomorfismo f rispetto alla base 2 −2 ◮ B B è [f ]B = . Abbiamo 1 −3   2 −2 B det(f ) = det [f ]B = det = −4. 1 −3 4. Sì, perché det(f ) 6= 0.

c 2014 Gennaro Amendola

Versione 1.0

◮ Abbiamo visto come trovare la matrice associata a un’applicazione lineare nella Lezione 25.

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 26/S2 Cambiamenti di base 1

Sessione di Studio 26.2

Cambiamenti di base

Lezione 26. Cambiamenti di base

26–6

Sessione di Studio 26.2 Esercizio 26.3. Data la seguente coppia di basi B e B ′ , trova la matrice ′ . di cambiamento di base [id]B B         3 1 −1 4 ′ 1. B = , and B = , . 2 2 1 2             0  −3 1 0   1  1 2. B = 2 , 0 , −1 and B ′ = 1 , −4 , −2 .     0 2 0 2 0 1          1 −3 2 2              2 −2 2  ,   ,   ,  3  and En . 3. B =  −1 0  2  −2      3 0 4 5         1+i 1 i 0 4. B = , and B ′ = , . 2 i 1 −i

Esercizio 26.4. Siano B e B ′ basi di uno spazio vettoriale finitamenB′ te  generato V tali che la matrice di cambiamento di base  [id]B sia 1 −1 3 2  4 −1 1, e sia v il vettore di V tale che [v] =  1 . B −1 0 1 −1 1. Trova il vettore delle coordinate di v rispetto alla base B ′ . 2. Trova la matrice di cambiamento di base [id]B B′ .

3. Calcola il vettore delle coordinate di v rispetto alla base B con la matrice di cambiamento di base [id]B B′ e [v]B′ , e controlla che il risultato sia [v]B .

Esercizio 26.5. Siano BV e BV′ basi di uno spazio vettoriale finitamente B′

generato V tali che la matrice di cambiamento di base sia [id]BVV =   1 1 1 3 0 0. Siano BW e B ′ basi di uno spazio vettoriale finitamente W 1 1 2

generato   1 0 . 3 3  2 −1 0 2

B′

= W tali che la matrice di cambiamento di base sia [id]BW W

W Considera l’applicazione lineare f : V → W tale che [f ]B BV =    1 1 . Considera il vettore v ∈ V tale che [v]BV =  1 . 3 −1 ′ 1. Scrivi la matrice associata ad f rispetto alle basi BV′ in V e BW in W . W 2. Calcola l’immagine di v usando la matrice [f ]B BV .

B′

3. Calcola l’immagine di v usando la matrice [f ]BW ′ . V

4. I due risultati sono uguali?

3 3 Esercizio 26.6.  Consideral’endomorfismo fA : R → R associato alla 1 −1 0  matrice A = 1 −2 −1. 1 0 1 c 2014 Gennaro Amendola

Versione 1.0

Lezione 26. Cambiamenti di base

26–7

       0 1   1 1. Scrivi la matrice associata ad f rispetto alla base B =  3  , 1 , 4 .   −1 3 1 2. Calcola il determinante di f sia usando la base E3 che usando la base B, controllando che il determinante di f non dipende da quale delle due basi è usata per calcolarlo. 3. f è un isomorfismo?

c 2014 Gennaro Amendola

Versione 1.0

Lezione 26. Cambiamenti di base

Risultato dell’Esercizio 26.3. 1. 

26–8 

 −14 4 −9 1  −5 1 −3. 1 . 2. 2 2 0 2

1



3 5 6

 2 −3 2   2 −2 3  . 4. 1 − i −i . 0 2 −2 −1 + i −2 3 4 5   −2 Risultato dell’Esercizio 26.4. 1.  6 . −3   −1 1 2  2. −5 4 11. −1 1 3      2 −1 1 2 −2 3. −5 4 11  6  =  1 . −1 −1 1 3 −3 1 2 3.  −1 0

1.

Risultato dell’Esercizio 26.5.

3. [f (v)]B′

W



 0 . −1   0 ◮ . = −3

2. [f (v)]BW =

B′ [f ]BW ′ V

=

Esempio 26.4.

Osservazione 26.3.

Osservazione 26.7.

Osservazione 26.3.



 −3 1 2 . −6 1 9

Proposizione 26.12 e Osservazione 26.7.

◮ Start computing the coordinate vector of ′ (Remark 26.3). v relative to the basis BV

◮ 4. Sì, l’immagine di v è sempre f (v). ◮

◮ ◮ [f (v)]B′

W

Risultato dell’Esercizio 26.6.   −10 7 −7  −6 1. [f ]B 6 −3. B = 8 −8 4

◮ ◮ ◮

W

◮ ◮ ◮ Osservazione 25.4, Proposizione 26.12, Osservazione 26.5 e Osservazione 26.7.

2. det(f ) = det [f ]EE33 = 0. det(f ) = det [f ]B B = 0. 0 = 0.

3. No.

c 2014 Gennaro Amendola

B′

= [id]BW · [f (v)]BW .

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 26/S3 Cambiamenti di base 1

Sessione di Studio 26.3

Cambiamenti di base

Lezione 26. Cambiamenti di base

26–9

Sessione di Studio 26.3 Letture supplementari possono essere le seguenti: • http://it.wikipedia.org/wiki/Matrice_di_cambiamento_di_base

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 27 Sistemi di equazioni lineari 1

Lezione 27 Sistemi di equazioni lineari

Lezione 27

Sistemi di equazioni lineari In questa lezione vedremo come usare le matrici e le applicazioni lineari per studiare i sistemi di equazioni lineari. Dopo aver scritto i sistemi di equazioni lineari con la notazione matriciale e averli messi in relazione con le applicazioni lineari, troveremo alcuni risultati preliminari sull’insieme delle loro soluzioni.

27.1

Sistemi di equazioni lineari

Definizione 27.1. Un sistema di m equazioni lineari e n incognite in un campo K, o semplicemente un sistema lineare, è un sistema in cui i membri delle equazioni sono polinomi in K di grado al più 1. Se il campo K è R, il sistema di equazioni lineari è detto reale. Se il campo K è C, il sistema di equazioni lineari è detto complesso.

Sistemi di equazioni lineari/sistemi lineari

Sistema di equazioni lineari reale e complesso

Esempio 27.2. I seguenti sistemi sono lineari e reali.  x1 + x2 = 2 1. , con 2 equazioni e 2 incognite. 4x1 + 3x2 = −1   x1 − x2 + 2x3 + 3x4 = 0 x1 − x2 + 3x3 + 4x4 = −3 , con 3 equazioni e 4 incognite. 2.  x1 − x2 + x3 + 2x4 = 3

Esempio 27.3. I seguenti sistemi non sono lineari.  2 x1 − x2 = 0 1. , perché c’è un quadrato, x21 . x1 − 3x2 = 2  x1 + 4x2 = 0 2. , perché c’è cos x2 . 2x1 − cos x2 = 2

Notazione 27.4. Un sistema di m equazioni lineari e n incognite in un campo K appare genericamente come  a11 x1 + a12 x2 + · · · + a1n xn = b1     a21 x1 + a22 x2 + · · · + a2n xn = b2 (27.1) ..  .    am1 x1 + am2 x2 + · · · + amn xn = bm

dove le x∗ sono le n incognite, mentre le a∗∗ e le b∗ sono costanti assegnate in K. Le m · n costanti aij , con i = 1, 2, . . . , m e j = 1, 2, . . . , n, sono c 2014 Gennaro Amendola

Versione 1.0

Non è necessario mettere tutte le incognite nel primo membro e le costanti nel secondo membro. Per vari motivi che vedremo sotto, tuttavia, è utile pensare il sistema in questo modo.

Lezione 27. Sistemi di equazioni lineari

27–2

dette coefficienti, mentre le m costanti bi , con i = 1, 2, . . . , m, sono dette termini noti.

Coefficienti

Definizione 27.5. Una soluzione del sistema lineare (con m equazioni ed n incognite in un campo K)  a11 x1 + a12 x2 + · · · + a1n xn = b1     a21 x1 + a22 x2 + · · · + a2n xn = b2 ..  .    am1 x1 + am2 x2 + · · · + amn xn = bm

Soluzione

Un sistema di equazioni lineari è detto compatibile se ha almeno una soluzione.

Sistema di equazioni lineari compatibile

è una n-upla (x1 , x2 , . . . , xn ) di elementi di K che soddisfa simultaneamente tutte le equazioni, ossia  a11 x1 + a12 x2 + · · · + a1n xn = b1     a21 x1 + a22 x2 + · · · + a2n xn = b2 . ..  .    am1 x1 + am2 x2 + · · · + amn xn = bm

Termini noti

Sappiamo già cos’è una soluzione di un sistema (Lezione 4).

Esempio 27.6. Consideriamo i sistemi di equazioni lineari dell’Esempio 27.2. 1. Una soluzione del sistema è la coppia (x1 , x2 ) = (−7, 9), infatti se −7 + 9 = 2 sostituiamo i valori nel sistema otteniamo . 4 · (−7) + 3 · 9 = −1 La coppia (x1 , x2 ) = (−1, 1) non è una soluzione  del sistema, infatti −1 + 1 = 2 se sostituiamo i valori nel sistema otteniamo , 4 · (−1) + 3 · 1 = −1 ◮ Non è importante e la prima equazione non è soddisfatta. ◮ 2. Due soluzioni del sistema sono le coppie (x1 , x2 , x3 , x4 ) = (6, 0, −3, 0) e (x1 , x2 , x3 , x4 ) = (6, 1, −4, 1), infatti se sostituiamo i valori nel sistema otteniamo, rispettivamente,    6 − 0 + 2(−3) + 3 · 0 = 0  6 − 1 + 2(−4) + 3 · 1 = 0 6 − 0 + 3(−3) + 4 · 0 = −3 e 6 − 1 + 3(−4) + 4 · 1 = −3 .   6 − 0 + (−3) + 2 · 0 = 3 6 − 1 + (−4) + 2 · 1 = 3

che la seconda equazione è soddisfatta: per essere una soluzione, entrambe le equazioni devono essere soddisfatte.

La 4-upla (x1 , x2 , x3 , x4 ) = (0, 0, 0, 0) non è una soluzione  del siste 0−0+2·0+3·0 =0 ma, infatti se sostituiamo i valori nel sistema otteniamo 0 − 0 + 3 · 0 + 4 · 0 = −3 ,  0−0+0+2·0 =3 ◮ ◮ Nemmeno la terza. e la seconda equazione non è soddisfatta.

Un sistema di equazioni lineari dà luogo a tre problemi da studiare: • La compatibilità, ossia lo studio dell’esistenza delle soluzioni.

• La quantità (o il numero) delle soluzioni, ossia, visto che ci possono essere infinite soluzioni, la ricerca del numero di parametri necessari per parametrizzarle. • Il calcolo delle soluzioni, ossia la ricerca di tutte le n-uple che sono soluzione. c 2014 Gennaro Amendola

Versione 1.0

Lezione 27. Sistemi di equazioni lineari

27–3

Osservazione 27.7. Il sistema di equazioni lineari (27.1) può essere riscritto in forma vettoriale,     a11 x1 + a12 x2 + · · · + a1n xn b1  a21 x1 + a22 x2 + · · · + a2n xn   b2        =  ..  , ..    .  .

am1 x1 + am2 x2 + · · · + amn xn bm e quindi, attraverso il prodotto righe per colonne, come       a11 a12 · · · a1n x1 b1  a21 a22 · · · a2n   x2   b2         .. .. ..  ·  ..  =  ..  . . .  . . . .   .   .  am1 am2 · · · amn xn bm

Definizione 27.8. Si consideri il sistema di equazioni lineari (27.1). La matrice   a11 a12 · · · a1n  a21 a22 · · · a2n     .. .. ..  ..  . . . .  am1 am2 · · · amn è detta matrice dei coefficienti o matrice incompleta. Il vettore   b1  b2     ..   .  bm è detto vettore dei termini noti o colonna dei termini noti. Il vettore   x1  x2     ..   .  xn è detto vettore delle incognite.  a11 a12 · · · a1n  a21 a22 · · · a2n   .. .. .. ..  . . . .

am1 am2 · · · amn è detta matrice completa.

La matrice  b1 b2   ..  . 

Matrice dei coefficienti/incompleta

Vettore/colonna dei termini noti

Vettore delle incognite

Matrice completa

bm

Osservazione 27.9. Ogni sistema di equazioni lineari può essere pensato come una equazione vettoriale. Infatti, se diamo un nome alla matrice dei coefficienti e ai vettori dei termini noti e delle incognite,       a11 a12 · · · a1n b1 x1  a21 a22 · · · a2n   b2   x2        A :=  . B :=  .  , X :=  .  , .. ..  , . . . .  .  .   ..  . . .  am1 am2 · · · amn bm xn possiamo riscrivere il sistema di equazioni lineari (27.1) come l’equazione vettoriale A · X = B, c 2014 Gennaro Amendola

   b1 x1  x2   b2      I vettori  .  e  .  hanno lunghez ..   ..  bm xn ze diverse, anche se graficamente sembra il contrario. 

Versione 1.0

La matrice A ha dimensione m×n, mentre i vettori B e X hanno rispettivamente m e n coordinate.  La matrice completa è A B (Notazione 16.31) e ha dimensione m × (n + 1).

Lezione 27. Sistemi di equazioni lineari

27–4

dove l’incognita è il vettore colonna X. Osservazione 27.10. Il prodotto righe per colonne A · X corrisponde a fare la combinazione lineare dei vettori colonna di A con le incognite xi come coefficienti ◮, ossia il sistema di equazioni lineari (27.1) diventa         a11 a12 a1n b1  a21   a22   a2n   b2          x1  .  + x2  .  + · · · + xn  .  =  .  .  ..   ..   ..   ..  am1

am2

amn

bm

Quindi, possiamo pensare il sistema di equazioni lineari (27.1) come un’equazione in forma vettoriale in cui cerchiamo i coefficienti di una combinazione lineare of the columns of A il cui risultato è il vettore B. Esempio 27.11. Consideriamo i sistemi di equazioni lineari dell’Esempio 27.2.   1 1 1. La matrice dei coefficienti è , il vettore dei termini noti è 4 3     2 x1 , il vettore delle incognite è , la matrice completa è −1 x2   1 1 2 . Il sistema in forma vettoriale è 4 3 −1       2 x1 1 1 , = · −1 4 3 x2

e può essere anche scritto come       1 1 2 x1 + x2 = . 4 3 −1   1 −1 2 3 2. La matrice dei coefficienti è 1 −1 3 4, il vettore dei ter1 −1 1 2     x1 0  x2   mini noti è −3, il vettore delle incognite è  x3 , la matrice 3 x4   1 −1 2 3 0  completa è 1 −1 3 4 −3. Il sistema in forma vettoriale è 1 −1 1 2 3       x1 0 1 −1 2 3  x2  1 −1 3 4 ·   = −3 ,  x3  3 1 −1 1 2 x4 e può essere anche scritto come           1 −1 2 3 0 x1 1 + x2 −1 + x3 3 + x4 4 = −3 . 1 −1 1 2 3

Osservazione 27.12. Consideriamo il sistema di equazioni lineari A · X = B. La sola introduzione di queste matrici semplifica lo studio del c 2014 Gennaro Amendola

Versione 1.0

◮ Osservazione 17.19.

Lezione 27. Sistemi di equazioni lineari

27–5

sistema. Infatti, abbiamo che la j-esima colonna della matrice incompleta A ha come entrate i coefficienti dell’incognita  xj . Inoltre, abbiamo che la i-esima riga della matrice completa A B rappresenta la i-esima equazione. Se vogliamo applicare al sistema di equazioni lineari una delle operazioni descritte nella Definizione 4.13, è sufficiente applicarele corrispondenti operazioni elementari sulle righe alla matrice A B . ◮

◮ Definizione 16.33.

Esempio 27.13. Consideriamo i sistemi di equazioni lineari dell’Esempio 27.2. 1. Se moltiplichiamo entrambi i membri della seconda equazione del  x1 + x2 = 2 sistema per −2 (operazione di tipo II) otteniamo il sistema , −8x1 − 6x2 = 2 la cui matrice completa associata è ottenuta da quella del sistema iniziale attraverso un’operazione elementare sulle righe di tipo II:   1 1 2 . −8 −6 2 2. Se scambiamo le prime due  equazioni del sistema (operazione di  x1 − x2 + 3x3 + 4x4 = −3 tipo I) otteniamo il sistema x − x2 + 2x3 + 3x4 = 0 , la cui  1 x1 − x2 + x3 + 2x4 = 3 matrice completa associata è ottenuta da quella del sistema   iniziale 1 −1 3 4 −3 attraverso un’operazione elementare sulle righe di tipo I: 1 −1 2 3 0 . 1 −1 1 2 3 Se invece sostituiamo la terza equazione con l’equazione ottenuta aggiungendo a ciascun membro dell’equazione stessa (la terza) il corrispondente membro della seconda equazione  moltiplicato per 2  x1 − x2 + 2x3 + 3x4 = 0 (operazione di tipo III) otteniamo il sistema x − x2 + 3x3 + 4x4 = −3 ,  1 3x1 − 3x2 + 7x3 + 10x4 = −3 la cui matrice completa associata è ottenuta da quella del sistema iniziale attraverso un’operazione elementare sulle righe di tipo I:   1 −1 2 3 0 1 −1 3 4 −3. 3 −3 7 10 −3 Osservazione 27.14. L’insieme delle soluzioni di un sistema di equazioni lineari A · X = B può essere scritto come {X ∈ Kn | A · X = B}.

Osservazione 27.15. Consideriamo l’applicazione lineare fA : Kn → Km associata alla matrice A ◮, che è definita da fA (X) = A · X.

Una soluzione del sistema di equazioni lineari (27.1), A · X = B, è quindi un vettore colonna X ∈ Kn tale che fA (X) = B, ossia un elemento della controimmagine del vettore colonna B ∈ Km . Viceversa, ogni elemento della controimmagine di B è una soluzione del sistema di equazioni lineari. Quindi, l’insieme delle soluzioni del sistema di equazioni lineari (27.1) è la controimmagine PreimfA (B) del vettore colonna B rispetto all’applicazione lineare fA . c 2014 Gennaro Amendola

Versione 1.0

◮ Definizione 22.20.

Lezione 27. Sistemi di equazioni lineari

27–6

Inoltre, il sistema di equazioni lineari (27.1) è compatibile se e solo se il vettore colonna B appartiene all’immagine Im (fA ) dell’applicazione lineare fA .

Sistemi di equazioni lineari omogenei Definizione 27.16. Un sistema di equazioni lineari in cui tutti i termini noti sono nulli è detto omogeneo:

Sistema di equazioni lineari omogeneo

A · X = 0m .

Esempio 27.17. I seguenti sistemi di equazioni lineari reali sono omogenei.  x1 + x2 = 0 1. . 4x1 + 3x2 = 0   x1 − x2 + 2x3 + 3x4 = 0 2. x − x2 + 3x3 + 4x4 = 0 .  1 x1 − x2 + x3 + 2x4 = 0

Esempio 27.18. I sistemi di equazioni lineari dell’Esempio 27.2 non sono omogenei. Osservazione 27.19. I sistemi di equazioni lineari omogenei sono sempre compatibili. Infatti, i sistemi di equazioni   lineari omogenei hanno 0 0   sempre la soluzione nulla, ossia X = 0n =  .  è sempre una soluzione  ..  0 perché abbiamo A · 0n = 0m . ◮

La soluzione non è il numero 0, è la n-upla formata da n numeri 0, oppure se pensiamo il sistema come un’equazione vettoriale, il vettore colonna con tutte le n coordinate nulle.

◮ Questa soluzione è anche detta banale.

Esempio 27.20. I sistemi di equazioni lineari omogenei dell’Esempio 27.17 hannola soluzione nulla: 0+0=0 . 1. 4·0+3·0=0   0−0+2·0+3·0=0 2. 0−0+3·0+4·0=0 .  0−0+0+2·0=0

Osservazione 27.21. L’insieme delle soluzioni del sistema di equazioni lineari omogeneo A · X = 0m è il nucleo dell’applicazione lineare fA .

Definizione 27.22. Dato il sistema di equazioni lineari A · X = B, il sistema di equazioni lineari A · X = 0 è detto il sistema di equazioni lineari omogeneo associato to the system A · X = B.

Osservazione 27.15. Sistema di equazioni lineari omogeneo associato

Esempio 27.23. I sistemi di equazioni lineari omogenei associati ai sistemi di equazioni lineari dell’Esempio 27.2 sono quelli dell’Esempio 27.17. Le soluzioni di un sistema di equazioni lineari e le soluzioni di quello omogeneo associato sono legate tra loro. Proposizione 27.24. Se S è l’insieme delle soluzioni di un sistema di equazioni lineari compatibile A · X = B, ed S0 è l’insieme delle soluzioni di quello omogeneo associato A · X = 0, si ha l’uguaglianza

c 2014 Gennaro Amendola

Versione 1.0

Stiamo considerando solo i sistemi lineari compatibili. Se un sistema lineare non ha soluzione, questa proposizione non può essere applicata. Qui consideriamo la somma di un elemento X di Kn e del sottoinsieme S0 di Kn : essa è definita come l’insieme i cui elementi sono le somme di X e di un elemento di S0 (si veda anche l’Osservazione 23.9).

Lezione 27. Sistemi di equazioni lineari

27–7

S = X + S0 , dove X è un qualsiasi elemento di S. Dimostrazione. Abbiamo S = PreimfA (B). ◮ Visto che il sistema è compatibile, abbiamo PreimfA (B) 6= ∅; da ciò deduciamo che

◮ Remark 27.15.

PreimfA (B) = X + Ker (fA ) , dove X è un elemento scelto arbitrariamente in S = PreimfA (B). ◮ Infine, abbiamo S0 = Ker (fA ), ◮ e quindi S = X + S0 .

◮ Osservazione 23.9. ◮ Osservazione 27.21.

Esempio 27.25. Consideriamo i sistemi di equazioni lineari dell’Esem- Abbiamo visto come risolvere i sistemi nella Lezione 4. pio 27.2.    −7 x1 + x2 = 2 . è 1. L’insieme delle soluzioni del sistema 9 4x1 + 3x2 = −1   −7 ◮ Una soluzione del sistema è . L’insieme delle soluzioni del ◮ Ce n’è una sola, ma ne abbiamo bisogno di 9 una sola (Esempio 27.6).   0 ◮ sistema di equazioni lineari omogeneo associato ad esso ◮ è . ◮ ◮ Esempio 27.23. 0 L’insieme delle soluzioni del sistema è quindi tutte le soluzioni del sistema

z }| {  −7 = 9

tutte le soluzioni dell’omogeneo

una qualsiasi soluzione del sistema

z }| { −7 9

+

z }|{  0 0

.

  x1 − x2 + 2x3 + 3x4 = 0 2. L’insieme delle soluzioni del sistema x − x2 + 3x3 + 4x4 = −3  1 x1 − x2 + x3 + 2x4 = 3    6+α−β        α   è  con α, β ∈ R . Una soluzione del sistema è −3 − β        β   6 0  . ◮ L’insieme delle soluzioni del sistema di equazioni lineari −3 0    α − β        α   with α, β ∈ R . L’inomogeneo associato ad esso ◮ è   −β        β sieme delle soluzioni del sistema è quindi tutte le soluzioni del sistema

z { }| 6 + α − β        α   con α, β ∈ R =  −3 − β        β

una qualsiasi soluzione del sistema

z }| { 6 0   −3 0

◮ Esempio 27.23.

tutte le soluzioni dell’omogeneo

z {  }| α − β        α   . +  con α, β ∈ R −β        β

Osservazione 27.26. L’enunciato della proposizione precedente può essere riscritto come segue.

c 2014 Gennaro Amendola

◮ Ce ne sono molte, tra cui possiamo scegliere (Esempio 27.6).

Versione 1.0

Lezione 27. Sistemi di equazioni lineari

27–8

Una soluzione generica di un sistema di equazioni lineari compatibile è data da una soluzione particolare del sistema più una soluzione generica del sistema omogeneo associato. Osservazione 27.27. L’insieme delle soluzioni di un sistema di equazioni lineari omogeneo è un sottospazio vettoriale di Kn . ◮ Se invece il sistema A · X = B non è omogeneo, l’insieme delle soluzioni non è un sottospazio vettoriale di Kn ; infatti 0 non è una soluzione, perché A · 0 = 0 6= B.

Osservazione 27.28. Sia A · X = B un sistema di m equazioni lineari ed n incognite. Sia k la dimensione del sottospazio vettoriale Ker (fA ) di Kn . Se scegliamo una base di Ker (fA ), formata da k elementi, le soluzioni del sistema di equazioni lineari omogeneo associato A · X = 0 possono essere parametrizzate da k parametri appartenenti al campo K. ◮ Se k = 0, abbiamo che Ker (fA ) = {0n }, ossia il sistema di equazioni lineari omogeneo associato ha una sola soluzione. Se il sistema di equazioni lineari A · X = B è compatibile, anche le sue soluzioni possono essere parametrizzate da k parametri appartenenti al campo K. ◮ Se k = 0, abbiamo che il sistema ha esattamente una soluzione. Il numero k di parametri è uguale a n − rank (fA ), infatti abbiamo dim Ker (fA ) = dim (Kn ) − dim Im (fA ) . ◮ Inoltre, visto che abbiamo rank (fA ) = rank(A) ◮, abbiamo che il numero k di parametri è uguale a n − rank(A).

◮ Osservazione 27.21.

◮ Osservazione 14.36.

◮ Proposizione 27.24. ◮ Teorema 23.21. ◮ Lemma 25.14.

Osservazione 27.29. Ricapitolando, la quantità di soluzioni di un sistema di equazioni lineari A · X = B può essere solo una delle seguenti. • Se il sistema di equazioni lineari non è compatibile, esso ha zero soluzioni. • Se il sistema di equazioni lineari è compatibile, le soluzioni sono parametrizzate da k = n − rank(A) parametri appartenenti al campo K, quindi il sistema di equazioni lineari ha o una o infinite soluzioni, che indichiamo con ∞k per ricordare che esse sono parametrizzate da k parametri. ◮ Il caso in cui il sistema ha una sola ◮ soluzione è il caso in cui ci sono 0 parametri. ◮ Esempio 27.30. Consideriamo i sistemi di equazioni lineari dell’Esempio 27.2, i cui insiemi delle soluzioni sono descritti nell’Esercizio 27.25.  x1 + x2 = 2 ha una soluzione, quindi il numero 1. Il sistema 4x1 + 3x2 = −1 dei parametri è 0, e scriviamo che esso ha ∞0 soluzioni.   x1 − x2 + 2x3 + 3x4 = 0 2. Il sistema x − x2 + 3x3 + 4x4 = −3 ha infinite soluzioni, pa 1 x1 − x2 + x3 + 2x4 = 3 rametrizzate da 2 parametri, e scriviamo che esso ha ∞2 soluzioni.

c 2014 Gennaro Amendola

Versione 1.0

◮ Ricordiamo che stiamo considerando solo il caso in cui K ha infiniti elementi (Osservazione 9.40). 0 ◮ ◮ Per coerenza, ∞ = 1.

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 27/S1 Sistemi di equazioni lineari 1

Sessione di Studio 27.1

Sistemi di equazioni lineari

Lezione 27. Sistemi di equazioni lineari

27–9

Sessione di Studio 27.1 Esercizio  27.1. (x, y) = (3, −5) è una soluzione del sistema di equazioni 2x + y = 1 lineari ? x−y =7  2 · 3 + (−5) = 1 , Soluzione. No, infatti, sostituendo i valori nel sistema otteniamo 3 − (−5) = 7 e la seconda equazione nonăè soddisfatta. 

2x − y + z = 0 , x−y+z =0 scrivi il sistema di equazioni lineari omogeneo associato ad esso. Controlla che l’insieme delle soluzioni S del sistema può essere scritto come S = X + S0 , dove X è una soluzione del sistema e S0 è l’insieme delle soluzioni del sistema omogeneo associato. Esercizio 27.2. Dato il sistema di equazioni lineari reale

Soluzione. Il sistema di equazioni   lineari omogeneo associato al sistema 2x − y + z = 0 2x − y + z = 0 è il sistema stesso. ◮ x−y+z =0 x−y+z =0      0 L’insieme delle soluzioni del sistema è α con α ∈ R . Una so  α   0  luzione del sistema è 0. ◮ L’insieme delle soluzioni del sistema di equa0      0 zioni lineari omogeneo associato ad esso è lo stesso: α con α ∈ R .   α L’insieme delle soluzioni del sistema è quindi tutte le soluzioni

una qualsiasi soluzione

tutte le soluzioni dell’omogeneo

tutte le soluzioni del sistema

una qualsiasi soluzione del sistema

tutte le soluzioni dell’omogeneo

del sistema del sistema z  }| z  }| z}|{ { { 0 0 0     0 α con α ∈ R = + α con α ∈ R .     0 α α Possiamo anche  scegliere una qualsiasi altra soluzione del sistema,  0 come, per esempio, 1. Quindi, l’insieme delle soluzioni del sistema 1 può essere riscritto come ◮

z   }|  { 0   α con α ∈ R =   α o anche come tutte le soluzioni

del sistema z { }| 0   1 + α con α ∈ R =   1+α

c 2014 Gennaro Amendola

z }|{  0 1 1

una qualsiasi soluzione del sistema

z}|{ 0 1 1

z   }|  { 0   + α con α ∈ R ,   α tutte le soluzioni dell’omogeneo

z  }| {  0    α con α ∈ R . +   α

Versione 1.0

◮ Perché è già omogeneo.

◮ Ce ne sono molte, tra cui possiamo scegliere (Esempio 27.6).

◮ La soluzione che corrisponde a α = 3 nel   0 membro sinistro è 3; essa è uguale a 3     0 0 1 + 2, quindi nel membro destro 1 2 essa corrisponde a α = 2.

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 27/S2 Sistemi di equazioni lineari 1

Sessione di Studio 27.2

Sistemi di equazioni lineari

Lezione 27. Sistemi di equazioni lineari

27–10

Sessione di Studio 27.2 Esercizio 27.3. Quali dei seguenti sistemi sono lineari?  x − y2 = 3 1. . 3x − y = 1  x+y =1 2. . sin x − y = 1  x+y =i . 3. x − iy = 1 − i Esercizio 27.4.  Quali delle seguenti sono soluzioni del sistema di equa x1 − x2 + 3x3 − x4 = −2 zioni lineari x1 + x2 − x3 + 2x4 = 7 ?  x1 − 2x2 + 5x3 − x4 = −5 1. (x1 , x2 , x3 , x4 ) = (2, 3, 0, 1). 2. (x1 , x2 , x3 , x4 ) = (0, 7, 1, −2).

3. (x1 , x2 , x3 , x4 ) = (1, 5, 1, 1).

Esercizio 27.5. Scrivi le matrici associate ai seguenti sistemi di equazioni lineari.   x − 2y + z = 4 1. x − z = −1 .  2x − 3y + z = 3  y+z =0     x  −y =0 y+t=0 . 2.    x−z =0   −x + t = 0  (1 − i)x1 + x2 − ix3 = i . 3. x1 − 2ix3 = 4 − 3i Esercizio 27.6. Scrivi esplicitamente l’applicazione lineare associata al  x1 − 2x2 − x3 = 3 . sistema di equazioni lineari reale 2x1 − 5x2 + 2x3 = −3  x+y+z =2 Esercizio 27.7. Dato il sistema di equazioni lineari reale , x−y−z =4 scrivi il sistema di equazioni lineari omogeneo associato ad esso. Controlla che l’insieme delle soluzioni S del sistema può essere scritto come S = X + S0 , dove X è una soluzione del sistema e S0 è l’insieme delle soluzioni del sistema omogeneo associato. Esercizio 27.8. Quante soluzioni hanno i seguenti sistemi di equazioni lineari compatibili?   x + 2y − z + t = 1 1. 3x − y + 2z + t = 1 .  7y − 5z + 2t = 2  x1 + x2 = 2    x1 + x2 = 2 2. . 2x1 + 2x2 = 4    2x1 + x2 = 1

c 2014 Gennaro Amendola

Versione 1.0

Sappiamo già che i sistemi sono compatibili.

Lezione 27. Sistemi di equazioni lineari

27–11

 x1 + x2 + x4 = 0    x2 + x3 = 0 . 3. x + 2x2 + x3 + x4 = 0    1 2x1 + 4x2 + 2x3 + 2x4 = 0  z + (1 + 2i)w + 2u = i . 4. (1 − 2i)z + 5w + (2 − 4i)u = 2 + i

c 2014 Gennaro Amendola

Versione 1.0

Lezione 27. Sistemi di equazioni lineari

27–12

Risultato dell’Esercizio 27.3. 1. No. 2. No. 3. Sì. ◮ Risultato dell’Esercizio 27.4.

◮ È un sistema di equazioni lineari complesso.

1. Sì.

2. No. 3. Sì. Risultato dell’Esercizio 27.5.   x X = y , z  0 1  2. A =  0 1 −1  0 1  1 −1  0 1  1 0 −1 0



1 A B = 1 2  1 1 0 −1 0 0  1 0 1 , 0 −1 0 0 0 1  1 0 0 0 0 0  0 1 0 . −1 0 0 0 1 0 



1 −2  1. A = 1 0 2 −3  −2 1 4 0 −1 −1. −3 1 3   0 0    B =  0, X = 0 0

   1 4   −1 , B = −1, 1 3

  x y    , A B = z  t

     x1  1 − i 1 −i i 3. A = , B = , X = x2 , A B = 1 0 −2i 4 − 3i x3   1 − i 1 −i i . 1 0 −2i 4 − 3i 

Risultato dell’Esercizio 27.6.       x1 x1 x − 2x − x 1 2 3 fA : R3 ∋ x2  7−→ = A ·  x2  R 2 , 2x1 − 5x2 + 2x3 x3 x3   1 −2 −1 con A = . 2 −5 2  x+y+z =0 Risultato dell’Esercizio 27.7. . x−y−z =0          3 3    0  −1 − α with α ∈ R = −1 + −α with α, β ∈ R .     α 0 α

Risultato dell’Esercizio 27.8. 1. ∞1 . 2. ∞0 = 1. 3. ∞2 . 4. ∞2 .

c 2014 Gennaro Amendola

Versione 1.0

Questo esercizio non ha un’unica soluzione, quindi il lettore può trovare una soluzione diversa. Osservazioni 27.28 e 27.29.

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 27/S3 Sistemi di equazioni lineari 1

Sessione di Studio 27.3

Sistemi di equazioni lineari

Lezione 27. Sistemi di equazioni lineari

27–13

Sessione di Studio 27.3 Letture supplementari possono essere le seguenti: • http://it.wikipedia.org/wiki/Sistema_di_equazioni_lineari

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 28 Esistenza e unicità delle soluzioni 1

Lezione 28 Esistenza e unicità delle soluzioni

Lezione 28

Esistenza e unicità delle soluzioni In questa lezione studieremo l’esistenza delle soluzioni di sistemi di equazioni lineari attraverso le matrici. Studieremo anche il numero dei parametri dell’insieme delle soluzioni.

28.1

Esistenza e unicità delle soluzioni

Teorema 28.1 (Rouché-Capelli). Un sistema di equazioni lineari A · X = B è compatibile, se e solo se la matrice incompleta e la matrice completa hanno lo stesso rango, ossia  rank(A) = rank A B .

Dimostrazione. (∗∗) Indichiamo con A1 , A2 , . . . , An le colonne della  matrice A. Abbiamo che rank(A) = dim Span A1 , A2 , . . . , An e che   rank A B = dim Span A1 , A2 , . . . , An , B ◮. Per definizione abbia  mo Span A1 , A2 , . . . , An ⊂ Span A1 , A2 , . . . , An , B ◮. Supponiamo che il sistema sia  compatibile, e dimostriamo che  x1  x2     rank(A) = rank A B . Sia X =  .  una soluzione del sistema.  ..  Abbiamo

Teorema di Rouché-Capelli

◮ Proposizione 20.9. ◮ Definizione 12.13. Proposizione 12.22.

xn

x1 A1 + x2 A2 + · · · + xn An = B,

ossia il vettore dei termini noti è il risultato di una combinazione linea 1 2 n ◮ re delle colonne di A , i.e. B ∈ Span A , A , . . . , A . Therefore we ◮ Osservazione 27.10.   have that Span A1 , A2 ,. . . , An , B ⊂ Span A1 , A2 , . . . , An ◮, e quindi ◮ Proposizione 12.22. Span A1 , A2 , . . . , An , B = Span A1 , A2 , . . . , An . Da ciò deduciamo   1 2 n che dim Span A , A , .. . , A = dim Span A1 , A2 , . . . , An , B , ossia rank(A) = rank A B .  Viceversa, supponiamo ora che rank(A) = rank A B , e dimo striamo che il sistema è compatibile. Visto che Span A1 , A2 , . . . , An ⊂  Span A1 , A2 , . . . , An , B e dim Span A1 , A2 , . . . , An = dim Span A1 , A2 , . . . , An , B ,   abbiamo Span A1 , A2 , . . . , An = Span A1 , A2 , . . . , An , B ◮. Quindi, ◮ Corollario 15.27. c 2014 Gennaro Amendola

Versione 1.0

Si veda anche la

Lezione 28. Esistenza e unicità delle soluzioni

28–2

 B ∈ Span A1 , A2 , . . . , An , ossia B è il risultato di una combinazione lineare delle colonne A∗ : B = x1 A1 + x2 A2 + · · · + xn An .

I coefficienti x1 , x2 , . . . , xn sono una soluzione del sistema ◮, che è quindi compatibile.

◮ Osservazione 27.10.

Esempio 28.2. Consideriamo i sistemi di equazioni lineari dell’Esempio 27.2, una soluzione dei quali è stata descritta nell’Esercizio 27.6.   1 1 1. Il rango della matrice incompleta e il rango della matri4 3   1 1 2 sono entrambi 2, infatti il sistema di ce completa 4 3 −1 equazioni lineari ha soluzioni.   1 −1 2 3 2. Il rango della matrice incompleta 1 −1 3 4 e il rango della 1 −1 1 2   1 −1 2 3 0 matrice completa 1 −1 3 4 −3 sono entrambi 2, infatti il 1 −1 1 2 3 sistema di equazioni lineari ha soluzioni. Esempio 28.3. Consideriamo i seguenti sistemi di equazioni lineari. ◮    x1 + x2 = 2 1 1 1. . Il rango della matrice incompleta è 3 3 3x1 + 3x2 = −1   1 1 2 è 2, quindi 1, mentre il rango della matrice completa 3 3 −1 il sistema di equazioni lineari non ha soluzione. ◮   x1 − x2 + 2x3 + 3x4 = 0 2. x − x2 + 3x3 + 4x4 = −3 . Il rango della matrice incomple 1 x1 − x2 + x3 + 2x4 = 2   1 −1 2 3 ta 1 −1 3 4 è 2, mentre il rango della matrice completa 1 −1 1 2   1 −1 2 3 0 1 −1 3 4 −3 è 3, quindi il sistema di equazioni lineari 1 −1 1 2 2 non ha soluzione. ◮ Osservazione 28.4. Consideriamo un sistema lineare di equazioni lineari compatibile A · X = B, con m equazioni ed n incognite. Per il Teorema di Rouché-Capelli, la matrice incompleta e la matrice completa hanno lo stesso rango, diciamo r. Allora, le soluzioni del sistema possono essere parametrizzate da n − r parametri, infatti abbiamo rank(A) = r. ◮ Esempio 28.5. Consideriamo i sistemi di equazioni lineari dell’Esempio 27.2. Il numero dei parametri dei loro insiemi di soluzioni sono descritti nell’Esempio 27.30.     1 1 1 1 2 1. Abbiamo rank = rank = 2, infatti il sistema 4 3 4 3 −1 di equazioni lineari ha ∞2−2 = ∞0 soluzioni. c 2014 Gennaro Amendola

Versione 1.0

◮ Essi sono stati ottenuti da quelli dell’Esempio 27.2 cambiando solo, rispettivamente, un coefficiente e un termine noto.

◮ Abbiamo visto come risolvere i sistemi nella Lezione 4.

◮ Abbiamo visto come risolvere i sistemi nella Lezione 4.

◮ Osservazione 27.28.

Lezione 28. Esistenza e unicità delle soluzioni 

1 2. Abbiamo rank 1 1 2, infatti il sistema

28–3

   −1 2 3 1 −1 2 3 0 −1 3 4 = rank 1 −1 3 4 −3 = −1 1 2 1 −1 1 2 3 di equazioni lineari ha ∞4−2 = ∞2 soluzioni.

Teorema 28.6. Un sistema di equazioni lineari A · X = B con n equazioni ed n incognite ha una e una sola soluzione, se e solo se det(A) 6= 0. Dimostrazione. (∗∗) Cominciamo supponendo che det(A) 6= 0, e dimostrando che il sistema ha una e una sola soluzione. L’insieme delle soluzioni del sistema è la controimmagine del vettore colonna B rispetto all’applicazione lineare fA ◮. Visto che det(A) 6= 0, la matrice A è in◮ . Allora, la vertibile ◮, e quindi l’applicazione lineare fA è invertibile ◮ controimmagine di B è formata da un vettore X, ossia il sistema ha una e una sola soluzione, X. Viceversa, supponiamo che il sistema abbia una e una sola soluzione, e dimostriamo che det(A) 6= 0. Supponiamo, per assurdo, che det(A) = 0. Allora, per il Teorema di Kronecker il rango di A è strettamente minore di n ◮. Per ipotesi (il sistema ha una e una sola soluzione) abbiamo in particolare che il sistema è compatibile, quindi le soluzioni possono essere parametrizzate da k = n − rank(A) parametri appartenenti al campo K ◮. Visto che n > rank(A), abbiamo che k è positivo, quindi il sistema ha più di una soluzione ◮; abbiamo ottenuto una contraddizione: per ipotesi esso ha una solo soluzione.

A è una matrice quadrata, quindi ha senso calcolare il suo determinante.

◮ Osservazione 27.15. ◮ Teorema 21.5. ◮ Proposizione 24.9. ◮

◮ Teorema 20.16.

◮ Osservazione 27.28. ◮ Osservazione 27.29.

Osservazione 28.7. Il teorema precedente può essere applicato soltanto se il numero delle equazioni è uguale al numero delle incognite. Esempio 28.8. Consideriamo i seguenti sistemi di equazioni lineari reali, i primi due e l’ultimo dei quali sono stati già introdotti sopra.  x1 + x2 = 2 1. . Il numero delle equazioni e il numero delle in4x1 + 3x2 = −1 ◮ cognite coincidono , e il determinante della matrice dei coefficienti  1 1 è −1, non nullo, infatti il sistema di equazioni lineari ha 4 3 una e una sola soluzione.  x1 + x2 = 2 2. . Il numero delle equazioni e il numero delle 3x1 + 3x2 = −1 ◮ , e il determinante della matrice dei coeffiincognite  coincidono  1 1 cienti è 0, infatti il sistema di equazioni lineari non ha 3 3 esattamente una soluzione (non ha soluzione).  x1 + x2 = 2 3. . Il numero delle equazioni e il numero delle 3x1 + 3x2 = 6 ◮ , e il determinante della matrice dei coeffiincognite  coincidono  1 1 cienti è 0, infatti il sistema di equazioni lineari non ha 3 3 esattamente una soluzione (ha ∞1 soluzioni ◮).

c 2014 Gennaro Amendola

Versione 1.0

◮ Entrambi sono 2.

◮ Entrambi sono 2.

◮ Entrambi sono 2.

◮ Sia il rango della matrice incompleta che il rango della matrice completa sono 1.

Lezione 28. Esistenza e unicità delle soluzioni

28–4

  x1 − x2 + 2x3 + 3x4 = 0 4. Il Teorema 28.6 non può essere applicato al sistema x − x2 + 3x3 + 4x4 = −3  1 x1 − x2 + x3 + 2x4 = 3 perché il numero delle equazioni, 3, è diverso dal numero delle incognite, 4.

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 28 Esistenza e unicità delle soluzioni 3

Lezione 28 Aula virtuale

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA 28 Esistenza e unicità delle soluzioni 3

Aula virtuale Lo studente segua almeno 4 aule virtuali durante il corso. La scelta di quali aule virtuali seguire è lasciata allo studente.

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 28/S1 Esistenza e unicità delle soluzioni 1

Sessione di Studio 28.1 Esistenza e unicità delle soluzioni

Lezione 28. Esistenza e unicità delle soluzioni

28–5

Sessione di Studio 28.1 Esercizio 28.1. Studia la compatibilità del sistema di equazioni linea  x − z + kt = 1 ri 2x + ky + z = 0 con il Teorema di Rouché-Capelli ◮ al ◮ Teorema 28.1.  2y + (k + 1)z − 4t = −k variare del parametro k. Trova la quantità di soluzioni al variare del parametro k.   1 0 −1 k 1 0 , e la matrice Soluzione. La matrice incompleta è 2 k 0 2 k + 1 −4   1 0 −1 k 1 ◮ Abbiamo visto come completa è 2 k 1 0 0 . Abbiamo ◮ nella Lezione 20. 0 2 k + 1 −4 −k ( (  2 for k = 2 or k = −3 2 for k = 2 and rank A B = rank(A) = . 3 for k 6= 2, −3 3 for k 6= 2

calcolare il rango

Allora, i due ranghi coincidono per k 6= −3, quindi il sistema è compatibile per k 6= −3. La quantità delle soluzioni è • ∞4−2 = ∞2 per k = 2, • 0 per k = −3,

• ∞4−3 = ∞1 altrimenti.

Esercizio 28.2. Studial’esistenza di una e una sola soluzione del siste 2hx1 + x2 = 3 ma di equazioni lineari 3x1 − hx2 + 2x3 = k con il Teorema 28.6 al  x1 + 3x2 − 2hx3 = 0 variare del parametro h.   2h 1 0 Soluzione. Il determinante della matrice dei coefficienti è det  3 −h 2 = 1 3 −2h √

4h3 − 6h + 2, i cui zeri sono h1 = 1, h2/3 = −1±2 3 . ◮ Per h 6= h1 , h2 , h3 c’è una e una sola soluzione. Per h = h1 , h2 , h3 non c’è una e una sola soluzione. ◮

c 2014 Gennaro Amendola

Versione 1.0

◮ Abbiamo visto come trovare gli zeri dei polinomi nella Lezione 5.

◮ Ci può essere nessuna soluzione, o infinite.

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 28/S2 Esistenza e unicità delle soluzioni 1

Sessione di Studio 28.2 Esistenza e unicità delle soluzioni

Lezione 28. Esistenza e unicità delle soluzioni

28–6

Sessione di Studio 28.2 Esercizio 28.3. Quali dei seguenti sistemi di equazioni lineari sono compatibili? Usa il Teorema di Rouché-Capelli ◮ per rispondere alla domanda. Trova la quantità di soluzioni.  x1 + 3x2 − x3 = 1 1. . −x1 − x2 + 2x3 = 2  y − 2z = 0 . 2. x + y + 2z + 3t = 0   x1 − 3x2 − 2x3 = 2 3. 2x1 + x2 + 2x3 = 3 .  7x2 + 6x3 = 0   3x − 2y = 1 4. 4x + y = −2 .  5x − 7y = 5  iz1 + z2 − z3 = i 5. . (1 − i)z1 + z2 + iz3 = 3 − i  iw1 + w2 = 0 6. . w1 − iw2 = 1 − i

Esercizio 28.4. Studia la compatibilità dei seguenti sistemi di equazioni lineari con il Teorema di Rouché-Capelli ◮ al variare del parametro k. Trova la quantità di soluzioni al variare del parametro k.   x1 + 2x2 + 3x3 = 2 1. 2x1 − kx2 + 4x3 = 3 .  x1 − 3x2 + kx3 = k  x2 + kx3 = −1    x1 − x2 + 2x3 = 0 2. . 3x  1 + x2 − 4x3 = k   2kx1 + x2 = 1  4iz1 + 2z2 = 2 + 2i . 3. 2z1 − kz2 = 1 − i

Esercizio 28.5. Quali dei seguenti sistemi di equazioni lineari hanno una e una sola soluzione? Usa il Teorema 28.6 per rispondere alla domanda.  x1 − 4x2 = −1 1. . 2x1 + 3x2 = 4   4x1 + 3x2 − x3 = 0 2. 3x1 + x2 + 2x3 = 0 .  2x1 − x2 + 5x3 = 0  x1 + 2x2 + x3 = 1    x2 − x3 + 4x4 = −3 3. . 2x  1 + x2 + 3x4 = 0   x1 − 2x3 + 7x4 = −2 c 2014 Gennaro Amendola

Versione 1.0

◮ Teorema 28.1.

◮ Teorema 28.1.

Lezione 28. Esistenza e unicità delle soluzioni

4.



28–7

iz1 + (2 − i)z2 = i . (2 − i)z1 + (3 − 4i)z2 = 4

Esercizio 28.6. Studia l’esistenza di una e una sola soluzione per i seguenti sistemi di equazioni lineari con il Teorema 28.6 al variare del parametro h.   2x1 + x2 − 3x3 = h 1. x + hx2 − 4x3 = −2 .  1 hx1 − x2 − 2x3 = 0   2iz1 + z3 = 2 − i hz1 + 2z2 + iz3 = 3 2. .  (1 + i)z1 + 2z2 + (h + 2i)z3 = h − 4i

c 2014 Gennaro Amendola

Versione 1.0

Lezione 28. Esistenza e unicità delle soluzioni

Risultato dell’Esercizio 28.3. 2. Sì. ∞2 .

28–8

1. Sì. ∞1 .

3. No. 0.

4. No. ∞0 = 1.

5. Sì. ∞1 .

6. No. 0.

Risultato dell’Esercizio 28.4.

1. Compatibile per k 6= −2.

• ∞3−2 = ∞1 soluzioni per k = 1, • 0 solutions for k = −2, • ∞3−3 = ∞0 = 1 soluzione altrimenti.

2. Compatibile per k = ±2.

• ∞0 = 1 soluzione per k = ±2, • 0 soluzioni altrimenti.

3. Compatibile per tutti i k ∈ C.

• ∞1 soluzioni per k = i, • ∞0 = 1 soluzione altrimenti.

Risultato dell’Esercizio 28.5. 1. Sì. 2. No. 3. No. 4. Sì. Risultato dell’Esercizio 28.6. 2. h 6= 1 − i.

c 2014 Gennaro Amendola

1. h 6= 3, − 31 .

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 28/S3 Esistenza e unicità delle soluzioni 1

Sessione di Studio 28.3 Esistenza e unicità delle soluzioni

Lezione 28. Esistenza e unicità delle soluzioni

28–9

Sessione di Studio 28.3 Letture supplementari possono essere le seguenti: • http://it.wikipedia.org/wiki/Teorema_di_Rouch%E9-Capelli

c 2014 Gennaro Amendola

Versione 1.0

Lezione 28. Esistenza e unicità delle soluzioni

28–10

Sessione di Studio 28.Quiz Seguirà un quiz, le cui domande sono le seguenti, per controllare il livello di approfondimento degli argomenti studiati: assicurati di avere a disposizione queste domande quando farai il quiz. L’esito del quiz non sarà tenuto in considerazione per l’esame. Dopo aver svolto il quiz ricontrolla le domande, specialmente quelle a cui non hai risposto in maniera corretta. Per ognuna delle seguenti domande, la risposta esatta è una sola. Domanda 28.1. Quale dei seguenti è l’enunciato del Teorema di Rouché-Capelli? (a) Un sistema di equazioni  lineari A · X = B è compatibile, se rank(A) = rank A B . (b) Se un sistema di equazioni lineari A · X = B è compatibile, allora  rank(A) = rank A B . (c) Un sistema di equazioni lineari A · X = B è compatibile, se e solo  se rank(A) = rank A B . (d) Un sistema di equazioni  lineari A · X = B è compatibile, solo se rank(A) = rank A B . Domanda 28.2. Dato un sistema di equazioni lineari compatibile A · X = B con X ∈ K3 e rank(A) = 2, quale delle seguenti uguaglianze o disuguaglianze è vera?  (a) rank A B < 2.  (b) rank A B = 2.  (c) rank A B = 3.  (d) rank A B > 3. Domanda 28.3. Dato un sistema di equazioni lineari compatibile A · X = B con A1 , A2 , . . . , An che indicano le colonne di A, quali delle seguenti proposizioni non è equivalente al fatto che esiste una soluzione del sistema?  (a) B ∈ Span A1 , A2 , . . . , An . (b) B è il risultato di una combinazione lineare delle colonne A∗ .  (c) rank(A) = rank A B . (d) Nessuna delle altre risposte.

c 2014 Gennaro Amendola

Versione 1.0

Lezione 28. Esistenza e unicità delle soluzioni

28–11

Domanda 28.4. Dato il sistema di equazioni lineari reale   x1 + 2x2 − x3 = 1 2x1 + 4x3 = 0 ,  2x2 − 3x3 = 1 quale delle seguenti affermazioni è vera?    1 2 −1 1 2    (a) rank 2 0 4 = 2, rank 2 0 0 2 −3 0 2 soluzione.    1 2 −1 1 2 (b) rank 2 0 4  = 2, rank 2 0 0 2 −3 0 2 ha soluzione.    1 2 −1 1 2 (c) rank 2 0 4  = 2, rank 2 0 0 2 −3 0 2 soluzione.    1 2 1 2 −1    = 2, rank 2 0 (d) rank 2 0 4 0 2 0 2 −3 ha soluzione.

 −1 1 4 0 = 2, il sistema ha −3 1  −1 1 4 0 = 2, il sistema non −3 1  −1 1 4 0 = 3, il sistema ha −3 1  −1 1 4 0 = 3, il sistema non −3 1

Domanda 28.5. Dato il sistema di equazioni lineari reale  3x1 + 2x2 = −1 , 9x1 + 6x2 = 3 quale delle seguenti affermazioni è    3 2 3 2 (a) rank = 1, rank 9 6 9 6    3 3 2 = 1, rank (b) rank 9 9 6 soluzione.    3 2 3 2 = 1, rank (c) rank 9 6 9 6    3 2 3 (d) rank = 1, rank 9 6 9 soluzione.

c 2014 Gennaro Amendola

vera?  −1 = 1, il sistema ha soluzione. 3  2 −1 = 1, il sistema non ha 6 3 −1 3

 = 2, il sistema ha soluzione.

2 −1 6 3

 = 2, il sistema non ha

Versione 1.0

Lezione 28. Esistenza e unicità delle soluzioni

28–12

Domanda 28.6. Per quale dei  seguentivettori dei termini noti B il 3 −1 sistema di equazioni lineari reale 1 2  · X = B ha soluzione? 1 −5   2 (a)  3 . −2   2 (b)  3 . −1   2  2 . (c) −2   1 (d)  3 . −2 Domanda 28.7. Per quali valori del parametro k il sistema lineare reale  x + ky = 0 kx + y = k − 1 ha soluzioni? (Applicare il Teorema di Rouché-Capelli.) (a) k 6= ±1. (b) k 6= −1. (c) k = ±1. (d) k = −1. Domanda 28.8. Dato un sistema di equazioni lineari A · X = B con A quadrata tale che det(A) 6= 0, quale delle seguenti proposizioni è vera? (a) Non esistono soluzioni. (b) Esiste una e una sola soluzione. (c) Esistono infinite soluzioni. (d) Possono esistere o no soluzioni, a seconda del sistema; se ci sono soluzioni, queste sono infinite. Domanda 28.9. Dato un sistema di equazioni lineari A · X = B con A quadrata tale che det(A) = 0, quale delle seguenti proposizioni è vera? (a) Non esistono soluzioni. (b) Esiste una e una sola soluzione. (c) Esistono infinite soluzioni. (d) Possono esistere o no soluzioni, a seconda del sistema; se ci sono soluzioni, queste sono infinite.

c 2014 Gennaro Amendola

Versione 1.0

Lezione 28. Esistenza e unicità delle soluzioni

28–13

Domanda 28.10. Dato un sistema di equazioni lineari non compatibile A · X = B con A quadrata di ordine n, quale delle seguenti (dis)uguaglianze è falsa? (a) rank(A) 6= n. (b) det(A) = 0. (c) det(A) 6= 0.  (d) rank(A) 6= rank A B .

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 29 Regola di Cramer 1

Lezione 29 Regola di Cramer

Lezione 29

Regola di Cramer In questa lezione descriveremo un algoritmo per calcolare la soluzione di un sistema compatibile con un numero uguale di equazioni lineari e incognite. Useremo anche questo algoritmo per calcolare le soluzioni di un qualsiasi sistema di equazioni lineari compatibile.

29.1

Regola di Cramer

Algoritmo 29.1 (Regola di Cramer). Sia A · X = B un sistema di n equazioni lineari ed n incognite con det(A) 6= 0. Siano A1 , A2 , . . . , An le colonne di A. La i-esima coordinata dell’unica soluzione del sistema ◮ è  det A1 A2 · · · Ai−1 B Ai+1 Ai+2 · · · An xi = det(A)

Regola/metodo di Cramer A è una matrice quadrata, quindi ha senso calcolare il suo determinante. ◮ Il sistema ha una e una sola soluzione per il Teorema 28.6.

(dove la matrice al numeratore è scritta usando le sue n colonne), ossia il rapporto tra il determinante della matrice ottenuta da A sostituendo la i-esima colonna con la colonna dei termini noti, e il determinante di A. Proposizione 29.2. Sia A · X = B un sistema di n equazioni lineari ed n incognite con det(A) 6= 0. Allora, la soluzione trovata con il metodo di Cramer è l’unica soluzione del sistema. Dimostrazione. (∗∗)  Visto  che det(A) 6= 0, il sistema ha una e una sola x1  x2    ◮ soluzione ◮, diciamo  . . Abbiamo ◮  .. 

Dobbiamo dimostrare che il risultato dell’algoritmo è effettivamente l’unica soluzione del sistema.

◮ Teorema 28.6. ◮ Osservazione 27.10. ◮

xn

B = x1 A1 + x2 A2 + · · · + xn An .

Calcoliamo il determinante della matrice

 A1 A2 · · · Ai−1 B Ai+1 Ai+2 · · · An .

Abbiamo che questo determinante è ◮ n X j=1

xj · det A1 A2 · · · Ai−1 Aj

c 2014 Gennaro Amendola

◮ Proposizione 19.3.

 Ai+1 Ai+2 · · · An . Versione 1.0

Lezione 29. Regola di Cramer

29–2

Per j 6= i, abbiamo che la matrice A1 A2 · · · Ai−1 Aj

Ai+1 Ai+2 · · · An



ha due colonne uguali (la j-esima e la i-esima sono uguali ad Aj ), quindi abbiamo che ◮  det A1 A2 · · · Ai−1 Aj Ai+1 Ai+2 · · · An = 0.

◮ Corollary 19.8.

Per j = i, invece, nella somma abbiamo

 xi ·det A1 A2 · · · Ai−1 Ai Ai+1 Ai+2 · · · An = xi ·det(A),

che è l’unico addendo rimasto. Quindi, abbiamo

 det A1 A2 · · · Ai−1 B Ai+1 Ai+2 · · · An = xi · det(A),

ossia la tesi.

Esempio 29.3. Consideriamo il sistema di equazioni lineari dell’Esempio 27.2-1:  x1 + x2 = 2 . 4x1 + 3x2 = −1 ◮ Il numero di equazioni e il numero di incognite  coincidono , e il determi1 1 nante della matrice dei coefficienti A = è −1, non nullo. L’unica 4 3   x1 soluzione del sistema è data da x2     2 1 1 2 det det −1 3 4 −1 7 −9 = = −7 e x2 = = = 9. x1 = det(A) −1 det(A) −1

◮ Entrambi sono 2.

L’algoritmo non può essereapplicato agli altri  sistemi di equazioni x1 + x2 = 2 x1 + x2 = 2 ,e , lineari dell’Esempio 28.8, ossia 3x1 + 3x2 = 6 3x1 + 3x2 = −1   x1 − x2 + 2x3 + 3x4 = 0 x − x2 + 3x3 + 4x4 = −3 , perché o il numero delle equazioni e delle  1 x1 − x2 + x3 + 2x4 = 3 incognite sono diversi, o il determinante della matrice dei coefficienti è 0.

Osservazione 29.4. Consideriamo un sistema di equazioni lineari com- Qui non stiamo supponendo più che la patibile A · X = B, con m equazioni ed n incognite. Per il Teorema di matrice dei coefficienti sia quadrata. Rouché-Capelli ◮, la matrice incompleta e la matrice completa hanno lo Sarebbe equivalente supporre che la matrice incompleta e la matrice completa hanno stesso rango, diciamo r. Le soluzioni del sistema possono essere para- lo stesso rango, e dedurre che il sistema è compatibile. ◮. Un modo per scrivere esplicitamente le metrizzate da n − r parametri ◮ ◮ Teorema 28.1. soluzioni in funzione dei parametri è il seguente. ◮ Osservazione 28.4. ◮ ◮ 1. Visto che rank(A) = r, per per il Teorema di Kronecker ◮ ◮ esiste ◮ ◮ ◮ Teorema 20.16. un minore di A di ordine r diverso da 0 e tutti i suoi orlati sono 0. Troviamo questo minore con l’Algoritmo 20.20. Chiamiamo Ai1 , Ai2 , . . . , Air e Aj1 , Aj2 , . . . , Ajr rispettivamente le righe e le colonne di A corrispondenti al minore.  2. Il minore trovato è anche A  un minore della matrice completa   B .  Visto che rank A B = r, anche le righe A B i , A B i , . . . , A B i 1

c 2014 Gennaro Amendola

2

Versione 1.0

r

Lezione 29. Regola di Cramer

29–3

 della matrice completa A B sono linearmente indipendenti e tutte le altre righe sono il risultato di una combinazione lineare di esse. Questo significa che le equazioni del sistema diverse dalla i1 -esima, i2 -esima,. . . , ir -esima dipendono dalle altre ◮, e quindi possono essere eliminate ottenendo un sistema equivalente ◮, con r equazioni lineari ed n incognite. Otteniamo la matrice completa del sistema ottenuto eliminando queste equazioni semplicemente considerando la matrice formata     solo dalle righe e la A B i , A B i , . . . , A B ir of A B . Chiamiamo A 1 2   e il vettore dei termini noti, e A e B e la matrice incompleta, B

matrice completa di questo sistema, equivalente al precedente.   e = rank A e B e = r. Inoltre, il 3. Per costruzione abbiamo rank A minore di ordine r della matrice A è ancora un minore di ordine e corrie quindi le colonne A ej1 , A ej2 , . . . , A ejr di A r della matrice A, spondenti al minore sono linearmente indipendenti ◮. Riscrivendo ◮ il sistema come ◮         ai1 1 ai 1 2 ai1 n bi 1 ai 1   ai 2  ai n  bi   2   2   2   2 x1  .  + x2  .  + · · · + xn  .  =  .  , . .  .   .   ..   ..  air 1

ai r 2

air n

◮ Osservazione 27.12. ◮ Osservazione 4.17.

◮ Perché la matrice le cui colonne sono ej1 , A ej2 , . . . , A ejr ha rango r. A

◮ ◮ Osservazione 27.10.

bi r

possiamo sottrarre a entrambi i membri gli addendi che non corrispondono alle incognite xj1 , xj2 , . . . , xjr e ottenere       ai 1  h bi 1 ai 1 j k n−r r ai    a i j   bi  X X  2 h  2 k  2 xh  .  , xj k  .  =  .  − . .  ..   .   .  k=1

ai r j k

bi r

h=1

ai r  h

dove 1 , 2 , . . . , n−r sono gli indici diversi da j1 , j2 , . . . , jr .

4. Considerando il sistema ottenuto solamente nelle incognite xj1 , xj2 , . . . , xjr , abbiamo r equazioni ed r incognite con determinante della matrice dei coefficienti non nullo. Le incognite x1 , x2 , . . . , xn−r sono diventate parametri e sono dette incognite libere, mentre le incognite Incognita libera xj1 , xj2 , . . . , xjr remain unknowns and are said incognite dipenden- Incognita dipendente ti. Applicando la Regola di Cramer ◮, o un qualsiasi altro metodo ◮ Algoritmo 29.1. risolutivo, otteniamo l’unica soluzione di questo sistema     xj1 (x1 , x2 , . . . , xn−r ) xj 1 xj  xj (x , x , . . . , x ) n−r   2  2 1 2 ,  ..  =  ..   .   . xj r

xjr (x1 , x2 , . . . , xn−r )

che dipende da x1 , x2 , . . . , xn−r , che sono diventati parametri.

5. Le soluzioni del sistema sono quindi le n-uple (x1 , x2 , . . . , xn ) tali che • xh = αh per h = 1, 2, . . . , n − r, • xjk = xjk (α1 , α2 , . . . , αn−r ) per k = 1, 2, . . . , r. c 2014 Gennaro Amendola

Versione 1.0

Lezione 29. Regola di Cramer

29–4

Esempio 29.5. Consideriamo il sistema di equazioni lineari reale dell’Esempio 27.2-2.   x1 − x2 + 2x3 + 3x4 = 0 x − x2 + 3x3 + 4x4 = −3 .  1 x1 − x2 + x3 + 2x4 = 3 1. Esso è compatibile,  1 −1 rank 1 −1 1 −1

infatti abbiamo    2 3 1 −1 2 3 0 3 4 = rank 1 −1 3 4 −3 = 2. 1 2 1 −1 1 2 3

Un  minore  di ordine 2 non nullo della matrice incompleta A è 1 2 det = 1, che è anche un minore della matrice completa 1 3  A B ; esso corrisponde alla prima e alla seconda riga, e alla prima e alla terza colonna: ◮    1 −1 2 3  x1 − x2 +2x3 + 3x4 = 0 1 −1 3 4 che corrisponde a x − x2 +3x3 + 4x4 = −3 .  1 1 −1 1 2 x1 − x2 + x3 + 2x4 = 3 2. Possiamo eliminare la terza equazione perché non corrisponde al minore, ottenendo un sistema equivalente: ◮ ( x1 − x2 +2x3 + 3x4 = 0 . x1 − x2 +3x3 + 4x4 = −3

◮ Con la notazione di sopra, abbiamo r = 2, i1 = 1, i2 = 2, j1 = 1, j2 = 3.

◮ Essa dipende dalle altre, infatti essa è due volte la prima meno la seconda, ma non è necessario trovare la dipendenza esplicita perché il fatto che il minore è il più grande non nullo ce lo assicura.

La matrice incompleta e la matrice sono diventate rispet   completa  1 −1 2 3 0  1 −1 2 3 e= e B e = . tivamente A e A 1 −1 3 4 1 −1 3 4 −3

3. Sottraiamo poi a entrambi i membri gli addendi che non corrispondono alle incognite x1 e x3 , ossia quelli che non corrispondono al minore, ottenendo il sistema ◮ ( x1 +2x3 = x2 − 3x4 . x1 +3x3 = −3 + x2 − 4x4

4. Consideriamo il sistema con 2 equazioni e 2 incognite appena trovato: la matrice incompleta sono diventate ri e la matrice completa    1 2 1 2 x2 − 3x4 ′ ′ ′ spettivamente A = e A B = . 1 3 1 3 −3 + x2 − 4x4 Le incognite x1 e x3 sono le incognite dipendenti, mentre x2 e x4 sono le incognite libere. Visto che det (A′ ) = 1 è non nullo, possiamo applicare la regola di Cramer ottenendo   x2 − 3x4 2 det −3 + x2 − 4x4 3 6 + x2 − x4 = = 6 + x2 − x4 e x1 = ′ det (A ) 1   1 x2 − 3x4 det 1 −3 + x2 − 4x4 −3 − x4 x3 = = = −3 − x4 . ′ det (A ) 1

c 2014 Gennaro Amendola

Versione 1.0

◮ Con la notazione di sopra, abbiamo n−r = 4 − 2 = 2, 1 = 2, 2 = 4.

Lezione 29. Regola di Cramer

29–5

5. Le soluzioni del sistema sono quindi le 4-uple ◮ (x1 , x2 , x3 , x4 ) = (6 + α1 − α2 , α1 , −3 − α2 , α2 )

o in forma vettoriale     x1 6 + α1 − α2  x2    α1 =  X= x3   −3 − α2  x4 α2

con α1 , α2 ∈ R,

◮ Esse sono parametrizzate da n−r = 4−2 = 2 parametri: α1 e α2 .

con α1 , α2 ∈ R.

Osservazione 29.6. Le n − r incognite libere trovate nell’osservazione precedente non sono univocamente determinate. Abbiamo che n−r incognite sono n − r incognite libere se e solo se la sottomatrice della matrice A formata dalle r colonne che non corrispondono a queste incognite ha proprio rango r. Esempio 29.7. Consideriamo ancora il sistema di equazioni lineari reale dell’Esempio 27.2-2.   x1 − x2 + 2x3 + 3x4 = 0 x − x2 + 3x3 + 4x4 = −3 .  1 x1 − x2 + x3 + 2x4 = 3   2 3 Se consideriamo il minore di ordine 2 non nullo det = −1 della 3 4 ◮ matrice dei coefficienti A ◮ possiamo ripetere i passi visti sopra. ◮   1 −1 2 3  1. Abbiamo la matrice A = 1 −1 3 4 che corrisponde a 1 −1 1 2   x1 − x2 +2x3 +3x4 = 0 x − x2 +3x3 +4x4 = −3 .  1 x1 − x2 + x3 + 2x4 = 3

Le incognite libere dipendono dal minore di ordine r non nullo di A trovato al Punto 1, che non è univocamente determinato (Algoritmo 20.20): by cambiando il minore (sempre di ordine r e non nullo) possiamo ottenere incognite libere diverse.

◮ Invece di det



1 1

 2 = 1. 3

◮ ◮ Con la notazione di sopra, abbiamo r = 2, i1 = 1, i2 = 2, j1 = 3, j2 = 4.

2. Eliminiamo la terza equazione, ossia quella che non corrisponde al minore, ottenendo il sistema ( x1 − x2 +2x3 +3x4 = 0 . x1 − x2 +3x3 +4x4 = −3

3. Sottraiamo a entrambi i membri gli addendi che non corrispondono alle incognite x3 e x4 , ossia quelli che non corrispondono al minore, ottenendo il sistema ◮ ( 2x3 +3x4 = −x1 + x2 . 3x3 +4x4 = −3 − x1 + x2 4. Consideriamo il sistema con 2 equazioni e 2 incognite appena trovato: la matrice incompleta e la matrice completa sono diventate  ri    2 3 2 3 −x + x 1 2 spettivamente A′ = . e A′ B ′ = 3 4 3 4 −3 − x1 + x2 Le incognite x3 e x4 sono le incognite dipendenti, mentre x1 e x2 sono le incognite libere. Visto che det (A′ ) = −1 è non nullo,

c 2014 Gennaro Amendola

Versione 1.0

◮ Con la notazione di sopra, abbiamo n−r = 4 − 2 = 2, 1 = 1, 2 = 2.

Lezione 29. Regola di Cramer

29–6

possiamo applicare la regola di Cramer ottenendo   −x1 + x2 3 det −3 − x1 + x2 4 −x1 + x2 + 9 x3 = = = x1 − x2 − 9 e ′ det (A ) −1   2 −x1 + x2 det 3 −3 − x1 + x2 −6 + x1 − x2 x4 = = = 6 − x1 + x2 . ′ det (A ) −1 5. Le soluzioni del sistema sono quindi le 4-uple ◮ (x1 , x2 , x3 , x4 ) = (α1 , α2 , α1 − α2 − 9, 6 − α1 + α2 ) o in forma vettoriale     x1 α1  x2    α2    X= x3  = α1 − α2 − 9 x4 6 − α1 + α2

con α1 , α2 ∈ R,

◮ Esse sono parametrizzate da n−r = 4−2 = 2 parametri: α1 e α2 .

con α1 , α2 ∈ R.

Esempio 29.8. Consideriamo ancora il sistema di equazioni lineari reale dell’Esempio 27.2-2.   x1 − x2 + 2x3 + 3x4 = 0 x1 − x2 + 3x3 + 4x4 = −3 .  x1 − x2 + x3 + 2x4 = 3

Se cerchiamo di scegliere x3 e x4 come incognite libere, sottraiamo a entrambi i membri gli addendi che corrispondono a esse, ottenendo il sistema   x1 − x2 = −2x3 − 3x4 x1 − x2 = −3 − 3x3 − 4x4 .  x1 − x2 = 3 − x3 − 2x4   1 −1 Ora, la matrice dei coefficienti A′ è diventata 1 −1, che ha rango 1 −1 1, e non possiamo trovare un minore di ordine 2 non nullo di A′ . Allora, non sappiamo quale equazione eliminare, e indipendentemente da quale scegliamo, otteniamo un sistema con 2 equazioni e 2 incognite, ma la cui matrice dei coefficienti ha determinante 0, quindi non possiamo trovare una soluzione unica per ogni coppia di parametri. ◮ Per esempio, eliminando la seconda riga otteniamo il sistema  x1 − x2 = −2x3 − 3x4 , x1 − x2 = 3 − x3 − 2x4   1 −1 la cui matrice dei coefficienti è , che ha determinanate 0. 1 −1

◮ Teorema 28.6.

Ricapitolando, per trovare le soluzioni di un sistema compatibile, possiamo usare il seguente algoritmo.

Algoritmo 29.9 (Generalizzazione della Regola di Cramer). Sia A·X = B un sistema di equazioni lineari compatibile, con m equazioni ed n incognite. I passi dell’algoritmo sono i seguenti. c 2014 Gennaro Amendola

Versione 1.0

Calcolo delle soluzioni di un sistema di equazioni lineari con una generalizzazione della Regola di Cramer Questa non è la Regola di Cramer. La Regola di Cramer può essere applicata solo se il numero delle equazioni e il numero delle incognite sono uguali (n = m), e se il determinante della matrice dei coefficienti è diverso da 0.

Lezione 29. Regola di Cramer

29–7

1. Si trovi un minore di A di ordine r = rank(A) e diverso da 0 con l’Algoritmo 20.20. 2. Si eliminino le equazioni del sistema che non corrispondono alle righe del minore. 3. Si spostino al secondo membro (cambiando il segno) i monomi con le n − r incognite libere che non corrispondono al minore, x1 , x2 , . . . , xn−r . 4. Si applichi la Regola di Cramer ◮, o un qualsiasi altro metodo riso- ◮ Algoritmo 29.1. lutivo, per ricavare l’unica soluzione del sistema ottenuto, nelle variabili xj1 , xj2 , . . . , xjr , che dipende da n−r parametri x1 , x2 , . . . , xn−r . Questa soluzione è una r-upla     xj1 (x1 , x2 , . . . , xn−r ) xj 1 xj  xj (x , x , . . . , x ) n−r   2  2 1 2  ..  =  , ..  .    . xj r

xjr (x1 , x2 , . . . , xn−r )

che dipende dalle variabili libere x1 , x2 , . . . , xn−r .

5. Le soluzioni del sistema sono quindi le n-uple (x1 , x2 , . . . , xn ) tali che • xh = αh per h = 1, 2, . . . , n − r, • xjk = xjk (α1 , α2 , . . . , αn−r ) per k = 1, 2, . . . , r.

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 29/S1 Regola di Cramer 1

Sessione di Studio 29.1

Regola di Cramer

Lezione 29. Regola di Cramer

29–8

Sessione di Studio 29.1 Esercizio 29.1. Trova l’insieme delle soluzioni del sistema di equazioni lineari reale  2x − 3y = 2 − α (α + 1)x − 2αy = 1 − α con la Regola di Cramer o la sua generalizzazione ◮ al variare del parametro α. Soluzione. La matrice dei  coefficientiA è quadrata, quindi calcoliamo 2 −3 il suo determinante: det = 3 − α. Se α 6= 3, applichiamo α + 1 −2α la Regola di Cramer ottenendo   2 − α −3 det 1 − α −2α 2α2 − 7α + 3 x= = = 1 − 2α det(A) 3−α   2 2−α det α+1 1−α α2 − 3α = = −α. y= det(A) 3−α   1 − 2α Quindi, l’insieme delle soluzioni per α 6= 3 è . −α  2x − 3y = −1 Se α = 3, il sistema diventa . Il rango della matrice 4x − 6y = −2  incompleta è 1 e un minore di ordine 1 non nullo è det 2 . Quindi, eli miniamo la seconda equazione, ottenendo il sistema 2x − 3y = −1 . ◮ Spostiamo al secondo membro (cambiando il segno) il monomio che  non corrisponde al minore, ottenendo 2x = −1 + 3y . Applichiamo la Regola di Cramer ottenendo ◮  det −1 + 3k −1 + 3k 1 3 = = − + k, x= det(A) 2 2 2 con y = k ∈  R che è un’incognita libera.   Quindi, l’insieme delle soluzioni 1 3 −2 + 2k per α = 3 è con k ∈ R . k

c 2014 Gennaro Amendola

Versione 1.0

◮ Algoritmi 29.1 e 29.9, rispettivamente.

◮ La soluzione può essere trovata facilmente senza la Regola di Cramer, ma l’esercizio richiede di usare la Regola di Cramer. ◮ Non possiamo usare α come parametro perché è già presente nell’esercizio.

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 29/S2 Regola di Cramer 1

Sessione di Studio 29.2

Regola di Cramer

Lezione 29. Regola di Cramer

29–9

Sessione di Studio 29.2 Esercizio 29.2. Trova l’insieme delle soluzioni dei seguenti sistemi di equazioni lineari con la Regola di Cramer o la sua generalizzazione ◮ .  x + 4y = 3 1. . 3x − y = −5   3x1 − 2x2 + 2x3 = 4 2. 6x1 − 4x2 + 4x3 = 8 .  4x1 + 5x2 − 3x3 = −3   4x + 2y − z = 4 3. 3x + 2z = −3 .  x + 2y − 2z = 6   iz1 + 2iz2 + z3 = 4i 4. 3z + (5 − i)z2 − iz3 = 3 − i .  1 (3 + 2i)z1 + (5 + 3i)z2 + (2 − i)z3 = 3 + 7i

Esercizio 29.3. Trova l’insieme delle soluzioni dei seguenti sistemi di equazioni lineari con la Regola di Cramer o la sua generalizzazione ◮ al variare del parametro k.  x1 + kx2 = 1 1. . (k − 1)x1 + 6x2 = 2   x + 3y + 2z = 1 x − ky + 2z = 4 − k . 2.  2x − y + kz = 1

c 2014 Gennaro Amendola

Versione 1.0

◮ Algoritmi 29.1 e 29.9, rispettivamente.

Se il sistema non è compatibile, la Regola di Cramer e la sua generalizzazione non possono essere applicate. ◮ Algoritmi 29.1 e 29.9, rispettivamente.

Lezione 29. Regola di Cramer

29–10

 17 14  Risultato dell’Esercizio 29.2. 1. − 13 , 13 . n  o 14−4β −25+17β 2. , β con β ∈ R . 23 , 23   1 13 3. − 3 , 6 , −1 .

Questo esercizio non ha un’unica soluzione, quindi il lettore può trovare una soluzione diversa.

4. {(−6 + 8i − (2 + i)β, 5 − 4i + (1 + i)β, β) con β ∈ C}. o n 1 2 , per k 6= 3, −2. Risultato dell’Esercizio 29.3. 1. k+2 k+2 {(1 − 3α, α) con α ∈ R} per k = 3. ∅ per k = −2. n o 2k k−3 6 2. − k+3 per k 6= 4, −3. , k+3 , k+3 n  o 14α−4 1 , , α con α ∈ R per k = 4. −7 7 ∅ per k = −3.

c 2014 Gennaro Amendola

Versione 1.0

Questo esercizio non ha un’unica soluzione, quindi il lettore può trovare una soluzione diversa. Questo esercizio non ha un’unica soluzione, quindi il lettore può trovare una soluzione diversa. Questo esercizio non ha un’unica soluzione, quindi il lettore può trovare una soluzione diversa.

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 29/S3 Regola di Cramer 1

Sessione di Studio 29.3

Regola di Cramer

Lezione 29. Regola di Cramer

29–11

Sessione di Studio 29.3 Letture supplementari possono essere le seguenti: • http://it.wikipedia.org/wiki/Regola_di_Cramer

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 30 Metodo di eliminazione di Gauss 1

Lezione 30 Metodo di eliminazione di Gauss

Lezione 30

Metodo di eliminazione di Gauss In questa lezione descriveremo un altro algoritmo per calcolare le soluzioni di un sistema di equazioni lineari compatibile. Esso è più veloce del precedente, ma non usa una formula esplicita per le soluzioni.

30.1

Metodo di eliminazione di Gauss

Osservazione 30.1. Consideriamo un sistema di equazioni lineari compatibile A · X = B, con m equazioni ed n incognite.  1. Consideriamo la matrice completa A B del sistema. Appli◮ alla matrichiamo il metodo di eliminazione di Gauss-Jordan  ′ ′ ce A B , ottenendo una matrice A B . Per l’Osservazione 27.12, le operazionielementari sulle righe che abbiamo applicato alla matrice A B corrispondono alle operazioni descritte nell’Osservazione 4.12, quindi il sistema di equazioni lineari A′ ·X = B ′ è equivalente al sistema A · X = B.  2. Alcune righe della matrice A′ B ′ sono nulle, quindi le possiamo   e B e , di dimensione r×n, e cancellare. Otteniamo una matrice A e · X = B, e che ha r equazioni quindi il sistema di equazioni lineari A ed è equivalente al sistema lineare A · X = B. e1 , A e2 , . . . , A en le colonne della matrice A. e Riscriviamo 3. Chiamiamo A ◮ il sistema come e1 + x2 A e2 + · · · + xn A en = B. e x1 A Siano xj1 , xj2 , . . . , xjr le incognite corrispondenti ai pivot, e siano x1 , x2 , . . . , xn−r le altre incognite. Possiamo sottrarre a entrambi i membri gli addendi che non corrispondono alle incognite xj1 , xj2 , . . . , xjr e ottenere r X k=1

e− ejk = B xj k A

n−r X h=1

eh . x h A

Per costruzione, visto che abbiamo applicato il metodo di eliminaejk sono quelle che zione di Gauss-Jordan, e visto che le colonne A

c 2014 Gennaro Amendola

Versione 1.0

◮ Algoritmo 16.56.

◮ Osservazione 27.10.

Lezione 30. Metodo di eliminazione di Gauss

30–2

  e B e , abbiamo che tutti gli contengono i pivot della matrice A ejk sono nulli eccetto il pivot (che è nella elementi delle colonne A jk -esima riga) che è 1. Quindi, possiamo riscrivere il sistema come   xj 1 n−r  xj  X  2 eh , e− Ir ·  .  = B x h A  ..  h=1

xj r nelle incognite xj1 , xj2 , . . . , xjr , che dipende dalle incognite libere x1 , x2 , . . . , xn−r .

4. Le soluzioni del sistema sono quindi le n-uple (x1 , x2 , . . . , xn ) tali che • xh = αh per h = 1, 2, . . . , n − r, ei − Pn−r αh A eh per k = 1, 2, . . . , r. • xj k = B k h=1 ik

Esempio 30.2. Consideriamo il sistema di equazioni lineari Abbiamo già calcolato le sue soluzioni nel le lezioni precedenti, tuttavia le calcoliamo x1 + x2 = 2 di nuovo con il metodo di eliminazione di Gauss-Jordan. 4x1 + 3x2 = −1 dell’Esempio 27.2-1.  1. Per risolvere il sistema, consideriamo la sua matrice completa A B =   1 1 2 , e applichiamo il metodo di eliminazione di Gauss4 3 −1    1 0 −7 ′ ′ . Abbiamo visto come applicare il metoJordan a essa, ottenendo la matrice A B = 0 1 9 do di eliminazione di Gauss-Jordan nella Sezione 16.2.  1 0 −7  e B e = , 2. Non ci sono righe nulle, quindi definiamo A 0 1 9  x1 = −7 che corrisponde al sistema . x2 = 9 3. Ogni incognita corrisponde a un pivot, quindi non sottraiamo nes◮ Con la notazione di sopra, abbiamo r = 2, sun addendo. ◮ j1 = 1, j2 = 3, e nessun indice  .

∗ 4. La soluzione del sistema   èquindi  la coppia (x1 , x2 ) = (−7, 9), o in x1 −7 forma vettoriale = . x2 9 Esempio 30.3. Consideriamo il sistema di equazioni lineari Abbiamo già calcolato le sue soluzioni nel le lezioni precedenti, tuttavia le calcoliamo  x1 − x2 + 2x3 + 3x4 = 0 di nuovo con il metodo di eliminazione di Gauss-Jordan. x1 − x2 + 3x3 + 4x4 = −3  x1 − x2 + x3 + 2x4 = 3 dell’Esempio 27.2-2.  1. Per risolvere il sistema, consideriamo la sua matrice completa A B =   1 −1 2 3 0 1 −1 3 4 −3, e applichiamo il metodo di eliminazione di 1 −1 1 2 3 Gauss-Jordan a essa, ottenendo la matrice Abbiamo visto come applicare il meto  do di eliminazione di Gauss-Jordan nella 1 −1 0 1 6 Sezione 16.2.  A′ B ′ = 0 0 1 1 −3 . 0 0 0 0 0

c 2014 Gennaro Amendola

Versione 1.0

Lezione 30. Metodo di eliminazione di Gauss

30–3

2. La terza riga è nulla, quindi definiamo  1 −1 0 1 6   e B e = , A 0 0 1 1 −3  x1 − x2 + x4 = 6 . che corrisponde al sistema x3 + x4 = −3

3. Sottraiamo a entrambi i membri gli addendi che non corrispondono ai pivot, ossia i monomi con x2 e x4 , ottenendo il sistema  x1 = 6 + x2 − x4 ◮ . x3 = −3 − x4

◮ Con la notazione di sopra, abbiamo r = 2, j1 = 1, j2 = 3, 1 = 2, 2 = 4.

4. Le soluzioni del sistema sono quindi le 4-uple

(x1 , x2 , x3 , x4 ) = (6 + α1 − α2 , α1 , −3 − α2 , α2 )

o in forma vettoriale     x1 6 + α1 − α2  x2    α1    X= x3  =  −3 − α2  x4 α2

con α1 , α2 ∈ R,

con α1 , α2 ∈ R.

Ricapitolando, per trovare le soluzioni di un sistema compatibile, possiamo usare il seguente algoritmo, che usa il metodo di eliminazione di Gauss-Jordan. Algoritmo 30.4. Sia A · X = B un sistema di equazioni lineari compatibile, con m equazioni ed n incognite. I passi dell’algoritmo sono i seguenti. ◮ alla matrice 1. Si applica il metodo  di eliminazione di Gauss-Jordan  ′ ′ completa A B , ottenendo la matrice A B .  ′ ′ , ottenendo la 2. Si cancellano le righe nulle della matrice A B   e B e , di dimensione r × n. Si considera il sistema di matrice A e · X = B, e equivalente al sistema A · X = B. equazioni lineari A

3. Si spostano al secondo membro (cambiando il segno) i monomi che non corrispondono ai pivot. Siano x1 , x2 , . . . , xn−r le incognite di questi monomi, dette incognite libere, e siano xj1 , xj2 , . . . , xjr le incognite corrispondenti ai pivot, dette incognite dipendenti. Il sistema è diventato   xj 1 n−r  xj  X  2 e− eh , x h A Ir ·  .  = B  ..  xj r

h=1

nelle incognite xj1 , xj2 , . . . , xjr , che dipende dalle incognite libere x1 , x2 , . . . , xn−r .

4. Le soluzioni del sistema sono quindi le n-uple (x1 , x2 , . . . , xn ) tali che • xh = αh per h = 1, 2, . . . , n − r, P ei − n−r αh A eh per k = 1, 2, . . . , r. • xj k = B k h=1 ik

c 2014 Gennaro Amendola

Versione 1.0

Calcolo delle soluzioni di un sistema di equazioni lineari con il metodo di eliminazione di Gauss-Jordan ◮ Algoritmo 16.56.

Incognita libera Incognita dipendente

Lezione 30. Metodo di eliminazione di Gauss

30–4

Osservazione 30.5. Il metodo di eliminazione di Gauss-Jordan può essere sostituito dal metodo di eliminazione di Gauss con normalizzazione ◮. In questo caso possiamo non avere più 0 sopra i pivot, ma possiamo trovare le incognite dipendenti cominciando dal quella corrispondente all’ultimo pivot (xjr con la notazione dell’Algoritmo 30.4) e procedendo a ritroso, risalendo (xjr−1 , xjr−2 , . . . , xj1 with the notation of Algorithm 30.4).

◮ Algoritmo 16.49.

Esempio 30.6. Consideriamo di nuovo i sistemi di equazioni lineari dell’Esempio 27.2. 1. Il sistema è  x1 + x2 = 2 . 4x1 + 3x2 = −1

Se applichiamo il metodo di eliminazione di Gauss con normaliz   1 1 2 zazione alla sua matrice completa A B = , otte4 3 −1    1 1 2 . Non ci sono righe nulniamo la matrice A′ B ′ = 0 1 9     1 1 2 e e , che corrisponde al le, quindi definiamo A B = 0 1 9  x1 + x2 = 2 sistema . Troviamo la soluzione cominciando da x2 = 9 x2 = 9, e poi trovando x1 = 2 − x2 = 2 − 9 = 7. Quindi la soluzione del   sistema  è la coppia (x1 , x2 ) = (−7, 9), o in forma vettoriale x1 −7 . = 9 x2

Abbiamo visto come applicare il metodo di eliminazione di Gauss con normalizzazione nella Sezione 16.2.

2. Il sistema è   x1 − x2 + 2x3 + 3x4 = 0 x − x2 + 3x3 + 4x4 = −3 .  1 x1 − x2 + x3 + 2x4 = 3

Se applichiamo il metodo di eliminazione di  Gauss con normalizza 1 −1 2 3 0  zione alla sua matrice completa A B = 1 −1 3 4 −3, 1 −1 1 2 3 otteniamo la matrice   1 −1 2 3 0  A′ B ′ = 0 0 1 1 −3 . 0 0 0 0 0

La terza riga è nulla, quindi definiamo   1 −1 2 3 0  e e , A B = 0 0 1 1 −3  x1 − x2 + 2x3 + 3x4 = 0 . Troviamo che corrisponde al sistema x3 + x4 = −3 la soluzione cominciando da x3 = −3 − x4 , e poi trovando x1 = x2 − 2x3 − 3x4 = 6 + x2 − x4 . Quindi le soluzioni del sistema sono le coppie 4-uple (x1 , x2 , x3 , x4 ) = (6 + α1 − α2 , α1 , −3 − α2 , α2 )

c 2014 Gennaro Amendola

con α1 , α2 ∈ R, Versione 1.0

Abbiamo visto come applicare il metodo di eliminazione di Gauss con normalizzazione nella Sezione 16.2.

Lezione 30. Metodo di eliminazione di Gauss

o in forma vettoriale     x1 6 + α1 − α2  x2    α1    X= x3  =  −3 − α2  x4 α2

30–5

con α1 , α2 ∈ R.

Osservazione 30.7. Possiamo applicare l’Algoritmo 30.4 anche se non sappiamo se il sistema di equazioni lineari A · X = B è compatibile. ◮ alla maInfatti, applicando il metodo di eliminazione di Gauss-Jordan   ′ ′ trice completa A B , ottieniamo la matrice A B : il sistema è compatibile se e solo se non ci sono pivot nell’ultima colonna, B ′ . Ciò è vero perché il sistema di equazioni lineari A′ · X = B ′ è equivalente al sistema A · X = B, e quindi il primo è compatibile se e solo se lo è il secondo. Abbiamo due casi, a seconda che nell’ultima colonna, B ′ , ci sia un pivot o meno. • Se nell’ultima colonna c’è un pivot, abbiamo che l’equazione corrispondente alla riga di questo pivot è 0 = 1, e quindi il sistema non è compatibile. • Se invece nell’ultima colonna non ci sono pivot, i pivot di A′ sono gli stessi diquelli di A′ B ′ . Allora, abbiamo rank (A′ ) = rank A′ B ′ , quindi il sistema è compatibile per il Teorema di Rouché-Capelli ◮. Esempio 30.8. Consideriamo i sistemi di equazioni lineari dell’Esempio 28.3. ◮ 1. Se applichiamo il metodo di alla ma  eliminazione di Gauss-Jordan  1 1 2 x1 + x2 = 2 , che è trice completa del sistema , 3 3 −1 3x1 + 3x2 = −1    1 1 2 otteniamo la matrice A′ B ′ = . Il sistema corri0 0 −7  x1 + x2 = 2 , che non ha soluzione, infatti c’è un spondente è 0 = −7 pivot nell’ultima colonna, B ′ .

◮ Algoritmo 16.56.

◮ Teorema 28.1.

◮ Essi sono stati ottenuti da quelli dell’Esempio 30.6 cambiando solo, rispettivamente, un coefficiente e un termine noto.

Abbiamo visto come applicare il metodo di eliminazione di Gauss-Jordan nella Sezione 16.2.

2. Se applichiamo il metodo di eliminazione di Gauss-Jordan alla matrice completa del sistema   x1 − x2 + 2x3 + 3x4 = 0 x − x2 + 3x3 + 4x4 = −3 ,  1 x1 − x2 + x3 + 2x4 = 2 che è

  1 −1 2 3 0 1 −1 3 4 −3 , 1 −1 1 2 2

otteniamo la matrice   1 −1 0 1 6  A′ B ′ = 0 0 1 1 −3 . 0 0 0 0 −1 c 2014 Gennaro Amendola

Abbiamo visto come applicare il metodo di eliminazione di Gauss-Jordan nella Sezione 16.2.

Versione 1.0

Lezione 30. Metodo di eliminazione di Gauss

30–6

  x1 − x2 + x4 = 6 Il sistema corrispondente è x + x4 = −3 , che non ha solu 3 0 = −1 zione, infatti c’è un pivot nell’ultima colonna, B ′ .

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 30/S1 Metodo di eliminazione di Gauss 1

Sessione di Studio 30.1

Metodo di eliminazione di Gauss

Lezione 30. Metodo di eliminazione di Gauss

30–7

Sessione di Studio 30.1 Esercizio 30.1. Trova l’insieme delle soluzioni del sistema di equazioni lineari reale  x1 − 2x2 − 6x3 = −3      2x1 − 4x2 − 12x3 = −6 x1 − 2x2 − 3x3 = −6    −x1 + 2x2 + 7x3 = 2   3x1 − 6x2 − 18x3 = −9

con il metodo di eliminazione di Gauss-Jordan ◮. Soluzione.

1. Consideriamo la sua  1 −2 −6  2 −4 −12   A B =  1 −2 −3 −1 2 7 3 −6 −18

e applichiamo il metodo di ottenendo la matrice  1 −2 0 0   A′ B ′ =  0 0 0 0 0 0

matrice completa  −3 −6  −6 , 2 −9

eliminazione di Gauss-Jordan ad essa, 0 1 0 0 0

Abbiamo visto come applicare il metodo di eliminazione di Gauss-Jordan nella Sezione 16.2.

 −9 −1  0 . 0 0

2. Le ultime tre righe sono nulle, quindi definiamo  1 −2 0 −9  e e , A B = 0 0 1 −1  x1 − 2x2 = −9 . che corrisponde al sistema x3 = −1

3. Sottraiamo a entrambi i membri l’addendo che non corrisponde ai  x1 = −9 + 2x2 . pivot, ossia x2 , ottenendo il sistema x3 = −1 4. Le soluzioni del sistema sono quindi le terne (x1 , x2 , x3 ) = (2α − 9, α, −1)

c 2014 Gennaro Amendola

◮ Algoritmo 30.4.

con α1 , α2 ∈ R.

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 30/S2 Metodo di eliminazione di Gauss 1

Sessione di Studio 30.2

Metodo di eliminazione di Gauss

Lezione 30. Metodo di eliminazione di Gauss

30–8

Sessione di Studio 30.2 Esercizio 30.2. Trova l’insieme delle soluzioni dei seguenti sistemi di equazioni lineari reale con il metodo di eliminazione di Gauss-Jordan ◮.  x1 + 3x2 = −7 1. . 2x1 + 5x2 = −11  x1 − x2 + 2x3 − 2x4 = −1 . 2. 3x1 − 3x2 + 6x3 − 5x4 = −1   x1 − 2x2 + x3 = 3 3. 3x1 − 6x2 + x3 = 7 .  3x1 − 6x2 = 2   2x1 + 4x2 + 10x3 − 6x4 = −12 4. −2x1 − 3x2 − 7x3 + 4x4 = 9 .  2x1 + 4x2 + 10x3 − 7x4 = −14  x + 2y + 5z = 2    x+y+z =9 5. . 2x + 4y + 12z = 0    −x − y + 2z = −12  x1 + 2x2 + 2x3 = 1      x2 + x3 = 1 x1 + 3x2 + 3x3 = 2 . 6.    2x1 + 5x2 + 6x3 = 7   −x1 + x3 = 5

Esercizio 30.3. Trova l’insieme delle soluzioni del seguente sistema di equazioni lineari complesso con il metodo di eliminazione di GaussJordan ◮.  z1 − iz2 + z3 = 2 + i . (1 + i)z1 + (2 − i)z2 + (1 + 3i)z3 = 4i

c 2014 Gennaro Amendola

Versione 1.0

◮ Algoritmo 30.4.

◮ Algoritmo 30.4.

Lezione 30. Metodo di eliminazione di Gauss

Risultato dell’Esercizio 30.2.

30–9

1. (x1 , x2 ) = (2, −3).

2. (x1 , x2 , x3 , x4 ) = (3 + α − 2β, α, β, 2) con α, β ∈ R.

3. ∅.

4. (x1 , x2 , x3 , x4 ) = (α − 2, 1 − 3α, α, 2) con α ∈ R. 5. ∅.

6. (x1 , x2 , x3 ) = (−1, −3, 4).

Risultato dell’Esercizio 30.3. (z1 , z2 , z3 ) = (1 + α, −1 + i − 2iα, α) con α ∈ C.

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 30/S3 Metodo di eliminazione di Gauss 1

Sessione di Studio 30.3

Metodo di eliminazione di Gauss

Lezione 30. Metodo di eliminazione di Gauss

30–10

Sessione di Studio 30.3 Letture supplementari possono essere le seguenti: • http://it.wikipedia.org/wiki/Metodo_di_eliminazione_di_Gauss

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 31 Autovalori e autovettori 1

Lezione 31 Autovalori e autovettori

Lezione 31

Autovalori e autovettori In questa lezione definiremo e studieremo gli autovettori e gli autovalori delle applicazioni lineari. Essi possono essere pensati rispettivamente come le direzioni e i fattori di allungamento (o di accorciamento) di un’applicazione lineare. Introdurremo anche il polinomio caratteristico per trovare gli autovalori.

31.1

Autovalori e autovettori

Definizione 31.1. Sia f ∈ Lin (V , V ) un endomorfismo di uno spazio vettoriale V sul campo K. Se v ∈ V \ {0} e λ ∈ K sono tali che (31.1)

f (v) = λv,

allora il vettore v è detto autovettore di f , e lo scalare λ è detto autovalore di f . L’autovettore v è detto relativo all’autovalore λ.  Esempio 31.2. Consideriamo l’endomorfismo f ∈ Lin V 2E , V 2E indicato nella figura.

−→

Il vettore v non è un autovettore perché f (v) non è un multiplo di v, mentre il vettore w è un autovettore relativo all’autovalore 2, perché f (w) è 2w.  Esempio 31.3. 1. Consideriamo l’endomorfismo fA ∈ Lin R2 , R2     −1 1 1 associato alla matrice . Il vettore colonna ∈ R2 è −6 4 3 c 2014 Gennaro Amendola

Versione 1.0

Autovettore e autovalore f (v) è un multiplo di v, e il fattore moltiplicativo è l’autovalore λ.

Lezione 31. Autovalori e autovettori

31–2

un autovettore di fA relativo all’autovalore 2 di fA , infatti abbiamo           1 −1 1 1 2 1 fA = · = =2· . 3 −6 4 3 6 3   1 ∈ R2 non è un autovettore di fA , Invece, il vettore colonna −1 infatti abbiamo          1 −1 1 1 −2 1 fA = · = 6= λ· per tutti i λ ∈ R. −1 −6 4 −1 −10 −1 2. Consideriamo l’endomorfismo f ∈ Lin (R62 [x] , R62 [x]) dato da  f a2 x2 + a1 x + a0 = −3a2 x2 +(−3a2 − 6a1 + 6a0 ) x−3 (a2 + a1 − a0 ) . Il polinomio 2x2 + 1 ∈ R62 [x] è un autovettore di f relativo all’autovalore −3 di f , infatti abbiamo   f 2x2 + 1 = −6x2 − 3 = −3 · 2x2 + 1 .

Instead, the polynomial x2 + 1 ∈ R62 [x] non è un autovettore di fA , infatti abbiamo   f x2 + 1 = −3x2 + 3x 6= λ · x2 + 1 per tutti i λ ∈ R.

Osservazione 31.4. L’applicazione lineare f è un endomorfismo di V , quindi abbiamo f (v) ∈ V e possiamo chiedere che f (v) sia un multiplo di v. Non è possibile dare la stessa definizione per un’applicazione lineare tra spazi vettoriali diversi. Osservazione 31.5. Sia f ∈ Lin (V , V ) un endomorfismo. Gli autovettori relativi all’autovalore 0 sono gli elementi non nulli di Ker(f ), infatti l’Equazione 31.1 per λ = 0 si riduce a f (v) = 0. Ossia, Ker(f ) è diverso da {0}, se e solo se 0 è un autovalore di f . Invece, gli autovettori relativi all’autovalore 1 sono gli elementi non nulli lasciati fissi da f , infatti l’Equazione 31.1 per λ = 1 si riduce a f (v) = v. Ossia, f ha punti fissi ◮ diversi dal vettore 0, se e solo se 1 è un autovalore di f .

◮ Definizione 6.5.

Esempio 31.6. Consideriamo gli endomorfismi dell’Esempio 31.3.   −1 1. Il vettore colonna ∈ R2 è un autovettore di fA relativo −2 all’autovalore 1 di fA , infatti è un punto fisso di fA :           −1 −1 1 −1 −1 −1 fA = · = =1· . −2 −6 4 −2 −2 −2 2. Il polinomio x + 1 ∈ R62 [x] è un autovettore di f relativo all’autovalore 0 di fA , infatti è un’elemento di Ker(f ): f (x + 1) = 0 = 0 · (x + 1). Osservazione 31.7. Ogni autovettore è relativo a uno e un solo autovalore. Infatti, da un lato la Definizione 31.1 ci assicura che un autovettore è relativo ad almeno un autovalore. Inoltre, supponiamo per assurdo che v sia un autovettore dell’endomorfismo f ∈ Lin (V , V ) relativo a due autovalori distinti, λ1 e λ2 . Avremmo f (v) = λ1 v = λ2 v, e quindi (λ1 − λ2 ) v = 0. Visto che λ1 − λ2 6= 0 abbiamo v = 0: ◮ questa è una c 2014 Gennaro Amendola

Versione 1.0

◮ Proprietà (SV9) della Proposizione 10.7.

Lezione 31. Autovalori e autovettori

31–3

contraddizione alla definizione di autovettore ◮. Il contrario non è vero, ossia per ogni autovalore esistono più autovettori. ◮ Infatti, se λ è un autovalore di f e v è un autovettore di f relativo a λ (ossia f (v) = λv e v 6= 0), allora anche kv è un autovettore di f relativo a λ per tutti i k ∈ K \ {0}. Per dimostrare ciò, è sufficiente considerare la catena di uguaglianze  f (kv) = k f (v) = k(λv) = λ(kv),

e notare che kv 6= 0. ◮

Esempio 31.8. Consideriamo gli endomorfismi dell’Esempio 31.3.     −4 1 1. Il vettore colonna = 4· è un altro autovettore di fA −12 3   1 ◮ . relativo all’autovalore 2 di fA , perché lo è 3  2. Il polinomio 4x2 + 2 = 2 2x2 + 1 è un altro autovettore di f ◮ relativo all’autovalore −3 di f , perché lo è 2x2 + 1. ◮

Osservazione 31.9. La richiesta v 6= 0 della Definizione 31.1 è fondamentale. Infatti, se non lo richiediamo, avremmo che tutti i λ ∈ K sarebbero autovalori, perché f (0) = λ0 per tutti i λ ∈ K.

◮ Definizione 31.1. ◮ Almeno uno esiste sempre per definizione.

◮ Proprietà (SV9) della Proposizione 10.7.

◮ Il  lettore può calcolare esplicitamente   −4 −4 fA , controllando che fA = −12 −12   −4 2· . −12 ◮ lettore può  calcolare esplicita◮ Il mente f 4x2 + 2 , controllando che   f 4x2 + 2 = −3 · 4x2 + 2 .

Osservazione 31.10. L’equazione (31.1) può essere riscritta come (f − λidV ) (v) = 0.

Infatti, abbiamo (f − λidV ) (v) = f (v) − λidV (v) = f (v) − λv. ◮

Definizione 31.11. Se λ è un autovalore di un endomorfismo f ∈ Lin (V , V ), allora l’insieme

◮ Definizione 22.17.

Autospazio (V )·,·

(V )f,λ := {v ∈ V | f (v) = λv}

è detto autospazio di f relativo a λ.

Notazione 31.12. Se l’endomorfismo f ∈ Lin (V , V ) è chiaro dal contesto, indichiamo l’autospazio di f relativo a λ semplicemente con

(V )·

(V )λ . Esempio 31.13. Consideriamo gli endomorfismi dell’Esempio 31.3. 1. L’autospazio di fA relativo all’autovalore 2 è    1 2 R f ,2 = Span , A 3    −x1 + x2 = 2x1 infatti se abbiamo fA x1 , x2 = 2· x1 , x2 , otteniamo −6x1 + 4x2 = 2x2     x1 α le cui soluzioni sono esattamente = con α ∈ R. x2 3α 2. L’autospazio di f relativo all’autovalore −3 è  (R62 [x])f,−3 = Span 2x2 + 1, −x2 + x ,

c 2014 Gennaro Amendola

Versione 1.0

Lezione 31. Autovalori e autovettori

31–4

  infatti se abbiamo f a2 x2 + a1 x + a0 = −3 · a2 x2 + a1 x + a0 ,    a2  −3a2 = −3a2 otteniamo −3a2 − 6a1 + 6a0 = −3a1 le cui soluzioni sono a1  =  −3 (a2 + a1 − a0 ) = −3a0 a0   2α − β  β  con α, β ∈ R. α

Osservazione 31.14. L’autospazio (V )f,λ relativo ad un autovalore λ di un endomorfismo f ∈ Lin (V , V ) è formato da tutti gli autovettori di f relativi a λ e dal vettore 0, che è l’unico vettore che soddisfa la condizione (31.1) ma non è un autovettore.

Osservazione 31.15. L’autospazio (V )f,λ relativo ad un autovalore λ di un endomorfismo f ∈ Lin (V , V ) coincide con Ker (f − λidV ). Infatti, possiamo riscrivere (V )f,λ come {v ∈ V | (f − λidV ) (v) = 0}. ◮ In particolare, abbiamo che Ker(f ) = (V )f,0 . ◮

◮ Osservazione 31.10. ◮ Osservazione 31.5.

Proposizione 31.16. L’autospazio (V )f,λ relativo ad un autovalore λ di un endomorfismo f ∈ Lin (V , V ) è un sottospazio vettoriale di V . Dimostrazione. Abbiamo che (V )f,λ coincide con Ker (f − λidV ) ◮, che è un sottospazio vettoriale di V ◮. La proposizione seguente è, praticamente, una riscrittura del fatto che ogni autovettore corrisponde ad un solo autovalore ◮.

◮ Osservazione 31.15. ◮ Proposizione 23.4.

◮ Osservazione 31.7.

Proposizione 31.17. Sia f ∈ Lin (V , V ) un endomorfismo. Se λ1 e λ2 sono due autovalori distinti di f , si ha l’uguaglianza (V )f,λ1 ∩ (V )f,λ2 = {0}.

La dimostrazione di questa proposizione è molto semplice, quindi la lasciamo al lettore. Definizione 31.18. Sia V uno spazio vettoriale finitamente generato. Se λ è un autovalore di un endomorfismo f ∈ Lin (V , V ), allora la dimensione dell’autospazio di f relativo a λ,

Geometric multiplicity m. g. (·, ·)

m. g. (f, λ) := dim (V )f,λ , è detta molteplicità geometrica di λ. Notazione 31.19. Se l’endomorfismo f è chiaro dal contesto, indichiamo la molteplicità geometrica di λ semplicemente con

m. g. (·)

m. g. (λ) . Esempio 31.20. Consideriamo gli autospazi dell’Esempio 31.13. 1. La molteplicità geometrica dell’autovalore 2 è m. g. (fA , 2) = dim 1.



2. La molteplicità geometrica dell’autovalore −3 è m. g. (f, −3) =   dim (R62 [x])f,−3 = 2.

Osservazione 31.21. 1. L’autospazio (V )f,λ non si può ridurre a ◮ {0}. ◮ Quindi, abbiamo ◮ m. g. (f, λ) > 1.

c 2014 Gennaro Amendola

Versione 1.0

R2



fA ,2



=

◮ Osservazione 31.7. ◮ ◮ Osservazione 15.6.

Lezione 31. Autovalori e autovettori

31–5

2. La molteplicità geometrica di un autovalore λ di un endomorfismo f coincide con il massimo numero di autovettori linearmente indipendenti relativi a λ. ◮ 3. La molteplicità geometrica di un autovalore λ di un endomorfismo f coincide con la dimensione di V meno il rango di f − λidV : ◮ m. g. (f, λ) = n − rank (f − λidV ) . Teorema 31.22. Sia f ∈ Lin (V , V ) un endomorfismo di uno spazio vettoriale V . Siano λ1 , λ2 , . . . , λp autovalori distinti di f , e siano v 1 , v 2 , . . . , v p autovettori relativi a questi autovalori (con v i relativo a λi , per i = 1, . . . , p). Allora, i vettori v 1 , v 2 , . . . , v p sono linearmente indipendenti.

◮ Osservazione 31.14 and Corollary 15.12.

◮ Per il Teorema fondamentale dell’algebra lineare (Teorema 23.21), perché abbiamo m. g. (f, λ) = dim (Ker (f − λidV )) (Osservazione 31.15).

Autovettori relativi ad autovalori diversi sono linearmente indipendenti.

Non daremo la dimostrazione di questo teorema, perché è abbastanza lunga. Osservazione 31.23. L’ipotesi che gli autovalori sono distinti è fondamentale. Come visto nell’Osservazione 31.7 può succedere che autovettori relativi allo stesso autovalore siano linearmente dipendenti.

Endomorfismi associati a matrici Se l’endomorfismo è fA ∈ Lin (Kn , Kn ), con A ∈ Kn,n , ci riferiremo alla matrice invece che all’applicazione lineare. Notazione 31.24. Sia A ∈ Kn,n una matrice quadrata. Se X ∈ Kn è un autovettore di fA relativo all’autovalore λ ∈ K diremo che X è un autovettore della matrice A, e che λ è un autovalore della matrice A.

Autovettore e matrice

autovalore di

Visto che ci occupiamo di endomorfismi, la matrice deve essere quadrata.

Esempio 31.25. Consideriamo l’endomorfismo dell’Esempio 31.3-1. Il  1 2 vettore colonna ∈ R è anche detto autovettore della matrice A = 3   −1 1 relativo all’autovalore 2 di A. −6 4

Osservazione 31.26. L’equazione (31.1) nel caso di un endomorfismo fA con A ∈ Kn,n diventa AX = λX, infatti fA (X) = AX. Essa può anche essere riscritta come (A − λIn ) X = 0n ,

infatti abbiamo (A − λIn ) X = AX − λIn X = AX − λX.

Osservazione 31.27. Il Teorema 31.22 nel caso delle matrici diventa: Sia A ∈ Kn,n una matrice quadrata. Siano λ1 , λ2 , . . . , λp autovalori distinti di A, e siano X1 , X2 , . . . , Xp autovettori relativi a questi autovalori (con Xi relativo a λi , per i = 1, . . . , p). Allora, i vettori colonna X1 , X2 , . . . , Xp sono linearmente indipendenti. Notazione 31.28. Sia A ∈ Kn,n una matrice quadrata. L’autospazio (Kn )fA ,λ relativo all’autovalore λ di fA è detto autospazio della matrice A relativo a λ, ed è indicato anche con (Kn )A,λ . Se la matrice A è chiara c 2014 Gennaro Amendola

Versione 1.0

una

Autospazio di una matrice (Kn )·,·

Lezione 31. Autovalori e autovettori

31–6

dal contesto, indichiamo l’autospazio di A relativo a λ semplicemente con (Kn )λ . Osservazione 31.29. Abbiamo ◮ n

n

(Kn )· ◮ Osservazione 31.26.

n

(K )A,λ := {X ∈ K | AX = λX} = {X ∈ K | (A − λIn ) X = 0n }.

Esempio 31.30. Consideriamo l’autospazio dell’Esempio 31.13-1. Esso   −1 1 è anche l’autospazio relativo all’autovalore 2 della matrice A = : −6 4   1 n . (K )A,2 = Span 3

Notazione 31.31. Sia A ∈ Kn,n una matrice quadrata, e sia λ un autovalore di A. La dimensione dell’autospazio (Kn )fA ,λ , è detta molteplicità geometrica di λ, ed è indicata con m. g. (A, λ). Se la matrice A è chiara dal contesto, indichiamo la molteplicità geometrica di λ semplicemente con m. g. (λ).

Molteplicità geometrica m. g. (·, ·) m. g. (·)

Esempio 31.32. Consideriamo la molteplicità geometrica calcolata nell’Esempio 31.20-1. Essa è anche  la molteplicità geometrica dell’autova−1 1 lore 2 della matrice A = : −6 4 m. g. (A, 2) = 2.

31.2

Polinomio caratteristico

Definizione 31.33. Sia V uno spazio vettoriale finitamente generato, e sia f ∈ Lin (V , V ) un endomorfismo di V . Il polinomio, in λ,

Polinomio caratteristico

pf (λ) := det (f − λidV )

è detto polinomio caratteristico di f . Osservazione 31.34. In alcuni libri di testo il polinomio caratteristico è definito come det (λidV − f ). Il questo caso il polinomio diventerebbe (−1)n pf (λ), dove n = dim(V ). Questa differenza non porta conseguenze su quasi tutto ciò di cui ci occuperemo. ◮ Osservazione 31.35. Sia f ∈ Lin (V , V ) un endomorfismo di uno spazio vettoriale V finitamente generato. Se B è una base di V , abbiamo   . pf (λ) = det [f ]B − λI n B

Infatti, abbiamo la seguente catena di uguaglianze: ◮     B B det (f − λidV ) = det [f − λidV ]B = det [f ] − λ [id ] V B B B =   = det [f ]B B − λIn . Quindi, se la  a11 a12  a21 a22   .. ..  . . an1 an2

matrice [f ]B B è  · · · a1n · · · a2n   ..  , .. . .  · · · ann

c 2014 Gennaro Amendola

Versione 1.0

◮ Al più alcuni cambiamenti di segno.

◮ Nella prima uguaglianza abbiamo applicato la Definizione 26.16, nella seconda il Teorema 25.10, e nella terza l’Osservazione 25.8.

Lezione 31. Autovalori e autovettori

31–7

il polinomio caratteristico di f è il determinante λidV , ossia  a11 − λ a12 ··· a1n  a21 a − λ · · · a 22 2n  pf (λ) = det  . . .. . .. ..  .. . an1

an2

della matrice [f ]B B −

· · · ann − λ



  . 

Osservazione 31.36. Dall’osservazione precedente deduciamo che il polinomio caratteristico pf (λ) of f ∈ Lin (V , V ) ha grado n = dim(V ). Infatti, abbiamo che in ogni addendo della sommatoria (18.10) λ compare al massimo n volte; ◮ inoltre, λ compare n volte solo nell’addendo ottenuto considerando gli elementi sulla diagonale principale,   a11 − λ a12 ··· a1n  a21 a22 − λ · · · a2n     .. , .. .. ..  .  . . . an1

an2

Grado del polinomio caratteristico

◮ Remark 18.14.

· · · ann − λ

quindi il monomio di grado massimo in pf (λ) è (−1)n λn e il grado del polinomio è n. ◮

Esempio 31.37. Consideriamo gli endomorfismi dell’Esempio 31.3. 1. La matrice associataall’endomorfismo fA rispetto alla base cano −1 1 ◮, quindi il polinomio caratteristico nica E2 di R2 è A = −6 4 di fA è       −1 1 1 0 E2 pfA (λ) = det [fA ]E2 − λI2 = det −λ = −6 4 0 1   −1 − λ 1 = det = λ2 − 3λ + 2. −6 4−λ

◮ In ogni campo 1 e −1 sono sempre diversi da 0: il primo per definizione, il secondo perché altrimenti da (−1) + 1 = 0, si potrebbe dedurre 0 + 1 = 0, ossia 1 = 0, che è una contraddizione. ◮ Abbiamo visto come trovare la matrice associata a un endomorfismo nella Lezione 25.

Il grado di pfA (λ) è 2, come la dimensione di R2 .

2. La matrice associata  all’endomorfismo  f rispetto alla base B = −3 0 0  2 x , x, 1 di R62 [x] è −3 −6 6 ◮, quindi il polinomio carat−3 −3 3 teristico di fA è     1 0 0 −3 0 0   −3 −6 6 − λ 0 1 0 = pf (λ) = det [f ]B B − λI3 = det 0 0 1 −3 −3 3   −3 − λ 0 0 −6 − λ 6  = −λ3 − 6λ2 − 9λ. = det  −3 −3 −3 3−λ

◮ Abbiamo visto come trovare la matrice associata a un endomorfismo nella Lezione 25.

Il grado di pf (λ) è 3, come la dimensione di R62 [x].

Teorema 31.38. Gli autovalori di un endomorfismo f di uno spazio vettoriale finitamente generato V coincidono con gli zeri del polinomio caratteristico pf . Dimostrazione.  (∗∗) Dimostriamo che λ ∈ K è un autovalore di f se e solo se pf λ = 0 con una serie di equivalenze. c 2014 Gennaro Amendola

Versione 1.0

Gli autovalori coincidono con gli zeri del polinomio caratteristico.

Lezione 31. Autovalori e autovettori

31–8

• Abbiamo che λ è un autovalore di f se e solo esiste v ∈ V \{0} tale  che f − λidV (v) = 0, ◮ ossia se e solo se Ker f − λidV 6= {0}.  • Abbiamo che Ker f − λidV 6= {0} se e solo se f non è iniettiva. ◮ • Abbiamo che f non è iniettiva se e solo se f non è bigettiva. ◮  • L’endomorfismo f non è bigettivo se e solo se det f − λidV = 0, ◮ ossia se e solo se pf (λ) = 0.

Esempio 31.39. Consideriamo gli endomorfismi dell’Esempio 31.3, di cui abbiamo calcolato il polinomio caratteristico nell’Esempio 31.37. 1. Gli zeri di pfA (λ), e quindi (tutti) gli autovalori di fA sono 1 e 2. ◮ Abbiamo già visto negli Esempi 31.3 e 31.6 che essi sono autovalori, ma ora siamo sicuri che essi sono tutti. 2. Gli zeri di pf (λ), e quindi (tutti) gli autovalori di fA sono 0 e 3. ◮ Abbiamo già visto negli Esempi 31.3 e 31.6 che essi sono autovalori, ma ora siamo sicuri che essi sono tutti. Definizione 31.40. Sia A ∈ Kn,n una matrice quadrata. Il polinomio caratteristico pfA dell’endomorfismo fA associato ad A è detto polinomio caratteristico di A, ed è indicato con pA . Osservazione 31.41. Se A = (aij )i=1,...,n ∈ Kn,n , abbiamo che j=1,...,n   a11 − λ a12 ··· a1n  a21 a22 − λ · · · a2n    pA (λ) = det (A − λIn ) = det  .  .. .. ..  ..  . . . an1 an2 · · · ann − λ

e che pA (λ) ha grado n. ◮ Gli autovalori di A coincidono con gli zeri del polinomio caratteristico pA .   −1 1 Esempio 31.42. Il polinomio caratteristico di A = è −6 4     1 0 −1 1 = −λ pA (λ) = det 0 1 −6 4   −1 − λ 1 = det = λ2 − 3λ + 2. −6 4−λ

Il grado di pA (λ) è 2, come l’ordine di A. Gli zeri di pA (λ), e quindi (tutti) gli autovalori di A sono 1 e 2. Essi sono gli stessi di quelli di fA , calcolati negli Esempi 31.37-1 e 31.39-1.

c 2014 Gennaro Amendola

Versione 1.0

◮ Osservazione 31.10. ◮ Proposizione 23.6. ◮ Corollario 23.25. ◮ Proposizione 26.19.

◮ Abbiamo visto come trovare gli zeri dei polinomi nella Lezione 5.

◮ Abbiamo visto come trovare gli zeri dei polinomi nella Lezione 5.

Polinomio caratteristico di una matrice

◮ Osservazioni 31.35 e 31.36, applicate all’endomorfismo fA e alla base canonica di Kn .

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 31/S1 Autovalori e autovettori 1

Sessione di Studio 31.1

Autovalori e autovettori

Lezione 31. Autovalori e autovettori

31–9

Sessione di Studio 31.1 1. Trova gli autovalori e le  relative molteplicità geo 1 −1 2 metriche della matrice A = 0 1 −2 su R. 0 1 −1 2. Trova gli autovalorie le relative molteplicità geometriche della 1 −1 2 stessa matrice A = 0 1 −2 su C. 0 1 −1   1 −1 2 Soluzione. 1. Il polinomio caratteristico di A = 0 1 −2 è 0 1 −1     1 −1 2 1 0 0     pA (λ) = det 0 1 −2 − λ 0 1 0 = 0 0 1 0 1 −1   1 − λ −1 2  1−λ −2  = (1 − λ) λ2 + 1 . = det  0 0 1 −1 − λ

Esercizio 31.1.

Gli zeri reali di pA (λ) sono gli autovalori di A, ossia solo 1. ◮ La molteplicità geometrica dell’autovalore 1 è ◮   0 −1 2 m. g. (fA , 1) = 3−rank(A−1·I) = 3− 0 0 −2 = 3−2 = 1. 0 1 −2

◮ Osservazione 31.41. ◮ Osservazione 31.21-3.

2. I calcoli per la matrice A su C sono analoghi:     1 0 0 1 −1 2 pA (λ) = det 0 1 −2 − λ 0 1 0 = 0 0 1 0 1 −1   1 − λ −1 2  = det  0 1−λ −2  = (1 − λ) λ2 + 1 , 0 1 −1 − λ ma ora λ è un numero complesso. Quindi, gli zeri complessi di ◮ Osservazione 31.41. pA (λ) sono gli autovalori di A, ossia 1 e ±i. ◮ ◮ Osservazione 31.21-3. La molteplicità geometrica dell’autovalore 1 è ancora ◮   0 −1 2 m. g. (fA , 1) = 3−rank(A−1·I) = 3− 0 0 −2 = 3−2 = 1. 0 1 −2 La molteplicità geometrica dell’autovalore i è   1 − i −1 2 m. g. (fA , i) = 3−rank(A−iI) = 3− 0 1−i −2  = 3−2 = 1. 0 1 −1 − i La molteplicità geometrica dell’autovalore −i è anche   1 + i −1 2 m. g. (fA , −i) = 3−rank(A−(−i)I) = 3− 0 1+i −2  = 3−2 = 1. 0 1 −1 + i c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 31/S2 Autovalori e autovettori 1

Sessione di Studio 31.2

Autovalori e autovettori

Lezione 31. Autovalori e autovettori

31–10

Sessione di Studio 31.2 Esercizio 31.2.  Quali dei seguenti vettori sono autovettori della matrice −4 5 −8  2 −1 2 ? Per quelli che sono autovettori, a quale autovalore 5 −5 9 sono relativi?       1 4 −2 1.  0 . 2. −3. 3.  2 . −1 2 2

Esercizio 31.3. Trova un autovettore delle seguenti matrici relativo al corrispondente autovalore.   8 −6 1. , λ = −1. 9 −7   0 2 −3 2. −1 3 −2, λ = 2. 1 −1 3   0 2 −3 −2 −1 3 −2 −4  3.   1 −1 3 −2, λ = 3. 0 0 0 3 Esercizio 31.4. Trova gli autovalori delle seguenti matrici sui corrispondenti campi.   1 2 0 1. 4 −1 4 su R. 2 −2 3   1 1 −1 0 0 2 −1 1  su R. 2.  0 0 1 1 1 −1 2 1   2−i i 3. su C. −2i 2 + 2i

Esercizio 31.5. Trova la molteplicità geometrica dei seguenti autovalori delle corrispondenti matrici.   −1 2 1. λ = i, . −i 1 + 2i   1 −1 −1 2. λ = 2, −1 1 −1. 1 1 3   2 −1 1 1 0 3 −3 −3 . 3. λ = 0,  −2 −2 2 2 2 2 −2 −2

c 2014 Gennaro Amendola

Versione 1.0

Lezione 31. Autovalori e autovettori

31–11

1. Sì. 4.

Risultato dell’Esercizio 31.2. 2. No. 3. Sì. −1. Risultato dell’Esercizio 31.3. 1.

Risultato dell’Esercizio 31.4. 1. λ1 = −1, λ2 = 1, λ3 = 3.





    0  1 2 −2  . 2. 1. 3.   2 . −3 0 −1

2. λ1 = 0, λ2 = 1, λ3 = 2. 3. λ1 = 2, λ2 = 2 + i.

Risultato dell’Esercizio 31.5.

1. 1.

2. 2. 3. 2.

c 2014 Gennaro Amendola

Versione 1.0

Questo esercizio non ha un’unica soluzione, quindi il lettore può trovare una soluzione diversa. ◮ Abbiamo visto come trovare gli zeri dei polinomi nella Lezione 5.

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 31/S3 Autovalori e autovettori 1

Sessione di Studio 31.3

Autovalori e autovettori

Lezione 31. Autovalori e autovettori

31–12

Sessione di Studio 31.3 Letture supplementari possono essere le seguenti: • http://it.wikipedia.org/wiki/Autovettore_e_autovalore

• http://it.wikipedia.org/wiki/Polinomio_caratteristico

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 32 Diagonalizzazione 1

Lezione 32 Diagonalizzazione

Lezione 32

Diagonalizzazione In questa lezione introdurremo e studieremo la diagonalizzabilità degli endomorfismi, ossia vedremo quando essi hanno abbastanza autovettori per formare una base, e legheremo questo concetto al concetto di matrice diagonalizzabile. Introdurremo anche la molteplicità algebrica, che ci sarà utile per studiare la diagonalizzabilità.

32.1

Molteplicità algebrica

Definizione 32.1. Sia λ un autovalore di f ∈ Lin (V , V ), con V finitamente generato. La molteplicità di λ come zero del polinomio caratteristico pf è detta molteplicità algebrica di λ, ed è indicata con  m. a. f, λ .

Notazione 32.2. Se l’endomorfismo f è chiaro dal contesto, indichiamo la molteplicità algebrica di λ semplicemente con  m. a. λ .

Molteplicità algebrica m. a. (·, ·)

m. a. (·)

Esempio 32.3. Consideriamo gli endomorfismi dell’Esempio 31.3, di cui abbiamo calcolato il polinomio caratteristico e gli autovalori rispettivamente negli Esempi 31.37 and 31.39. 1. Abbiamo pfA (λ) = λ2 − 3λ + 2 = (λ − 1)(λ − 2), quindi la molteplicità algebrica di entrambi gli autovalori, 1 e 2, è 1: m. a. (fA , 1) = 1 and

m. a. (fA , 2) = 1.

2. Abbiamo pf (λ) = −λ3 −6λ2 −9λ = −λ(λ+3)2 , quindi la molteplicità algebrica dell’autovalore 0 è 1, mentre la molteplicità algebrica dell’autovalore −3 è 2: m. a. (f, 0) = 1 and

m. a. (f, −3) = 2.

Osservazione 32.4. Visto che il grado del polinomio caratteristico di f ∈ Lin (V , V ) è uguale a dim(V ) ◮, la molteplicità algebrica degli autovalori di f non può superare dim(V ), ossia  per ogni λ autovalore di f. m. a. f, λ 6 dim(V )

Più precisamente, se gli autovalori di f sono λ1 , λ2 , . . . , λk , la somma delle molteplicità algebriche dei λ∗ non può superare dim(V ) ◮, ossia c 2014 Gennaro Amendola

Versione 1.0

◮ Osservazione 31.36.

◮ Corollario 5.45.

Lezione 32. Diagonalizzazione

k X i=1

32–2

 m. a. f, λi 6 dim(V ).

Teorema 32.5. Sia f un endomorfismo di uno spazio vettoriale finitamente generato di dimensione n. Se il polinomio caratteristico pf di f ha  P n zeri, contato ciascuno con la propria molteplicità (ossia ki=1 m. a. f, λi = n, dove λ1 , λ2 , . . . , λk sono gli autovalori di f ), il determinante di f è il prodotto degli autovalori, dove ciascuno compare un numero di volte pari alla propria molteplicità algebrica. Non daremo la dimostrazione di questo teorema, anche se non è difficile. Esempio 32.6. Consideriamo gli endomorfismi dell’Esempio 31.3 di cui abbiamo calcolato il polinomio caratteristico e gli autovalori rispettivamente negli Esempi 31.37 e 31.39. 1. Abbiamo det (fA ) = 2 = 1 · 2. 2. Abbiamo det(f ) = 0 = 0 · (−3) · (−3).

Notazione 32.7. Sia A ∈ Kn,n una matrice quadrata, e sia λ un autovalore di A. La molteplicità di λ come zero del polinomio caratteristico pfA = pA è detta molteplicità algebrica di λ, ed è indicata con m. a. A, λ . Se la matrice A è chiara dal contesto, indichiamo la  molteplicità algebrica di λ semplicemente con m. a. λ .   −1 1 Esempio 32.8. La molteplicità algebrica degli autovalori di A = −6 4 è m. a. (A, 1) = 1 e

Molteplicità algebrica

m. a. (·, ·) m. a. (·)

m. a. (A, 2) = 1, λ2

infatti abbiamo pA (λ) = − 3λ + 2 = (λ − 1)(λ − 2). Essi sono gli stessi di quelli di fA , calcolati nell’Esempio 32.3-1. Proposizione 32.9. Se λ è un autovalore di f ∈ Lin (V , V ) con V finitamente generato, si ha la disuguaglianza   m. g. f, λ 6 m. a. f, λ .

Non daremo la dimostrazione di questa proposizione, anche se non è difficile. Osservazione 32.10. L’Osservazione 31.21-1, la Proposizione 32.9 e l’Osservazione 32.4 possono essere ricapitolate con la seguente catena di disuguaglianze   1 6 m. g. f, λ 6 m. a. f, λ 6 dim(V ),

che vale per ogni autovalore λ di f ∈ Lin (V , V ) con V finitamente generato.

Esempio 32.11. Consideriamo gli endomorfismi dell’Esempio 31.3. Abbiamo calcolato alcune molteplicità geometriche e le molteplicità algebriche dei loro autovalori rispettivamente negli Esempi 31.20 e 32.3. Le altre molteplicità geometriche possono essere dedotte dal fatto che   1 6 m. g. λ 6 m. a. λ . ◮ c 2014 Gennaro Amendola

Versione 1.0

  m. a. λ   m. g. λ = 1.

◮ Se

=

1,

dobbiamo avere

Lezione 32. Diagonalizzazione

32–3

1. Abbiamo m.a.(fA ,1)

m.g.(fA ,1)

z}|{ 1

16

6

2. Abbiamo m.g.(f,0)

z}|{ 1

m.a.(f,0)

z}|{ z}|{ 1 6 1 6 16

dim(R2 )

z}|{ 6 2

e 16

dim(R62[x])

z}|{ 2

z}|{ 1

6

e 16

z}|{ 1

6

6

z}|{ 2

z}|{ 2 .

dim(R62[x])

m.a.(f,−3)

m.g.(f,−3)

z}|{ 2

dim(R2 )

m.a.(fA ,2)

m.g.(fA ,2)

6

z}|{ 2

.

Osservazione 32.12. Le Osservazioni 32.4 e 32.10 implicano che se gli autovalori di f ∈ Lin (V , V ), con V finitamente generato, sono λ1 , λ2 , . . . , λk , la somma delle molteplicità geometriche dei λ∗ non può superare dim(V ), ossia k X i=1

32.2

 m. g. f, λi 6 dim(V ).

Diagonalizzazione

Definizione 32.13. Sia f ∈ Lin (V , V ) un endomorfismo di uno spazio vettoriale finitamente generato V . Se V ha una base formata da autovettori di f , l’endomorfismo f è detto diagonalizzabile. Esempio 32.14. Consideriamo gli endomorfismi dell’Esempio 31.3.     1 −1 ◮ formano una base B di R2 formata 1. Gli autovettori e 3 −2 da autovettori di fA , quindi fA è diagonalizzabile. 2. Gli autovettori 2x2 + 1, −x2 + x e x + 1 ◮ formano una base B di R62 [x] formata da autovettori di f , quindi f è diagonalizzabile.

Endomorfismo diagonalizzabile

◮ Esempi 31.3-1 e 31.6-1.

◮ Esempi 31.13-2 e 31.6-2.

Esempio 32.15. I seguenti endomorfismi non sono diagonalizzabili: ◮ dimostreremo questo fatto nell’Esempio 32.23 sotto. ◮   1 1 2 1. L’endomorfismo fA di R associato alla matrice . −1 3

◮ ◮ La dimostrazione dell’esistenza di una base di autovettori è semplice una volta che abbiamo l’esempio (il problema può essere come l’abbiamo trovato), mentre la dimostrazione della non esistenza può essere più complicata, perché non possiamo controllare tutte le basi (ce n’è un numero infinito).

Proposizione 32.16. Una matrice A ∈ Kn,n è diagonalizzabile ◮, se e solo se l’applicazione lineare fA ∈ Lin (Kn , Kn ) è diagonalizzabile.

◮ Definizione 17.49.

2. L’endomorfismo f ∈ Lin (R62 [x] , R62 [x]) dato da  f a2 x2 + a1 x + a0 = (−a2 + 2a1 − 3a0 ) x2 +(−a2 + 2a1 − 2a0 ) x+(a2 − a1 + 2a0 ) . Non daremo la dimostrazione di questa proposizione, perché è abbastanza lunga.   −1 1 Esempio 32.17. La matrice A = è diagonalizzabile, perché −6 4 l’applicazione lineare fA è diagonalizzabile. ◮   1 1 Esempio 32.18. La matrice A = non è diagonalizzabile, −1 3 perché l’applicazione lineare fA non è diagonalizzabile. ◮

Proposizione 32.19. Se un endomorfismo di uno spazio vettoriale finitamente generato di dimensione n ha n autovalori distinti, è diagonalizzabile. c 2014 Gennaro Amendola

Versione 1.0

◮ Esempio 32.14-1.

◮ Esempio 32.15-1.

Notiamo che questa proposizione ha a che fare con una implicazione soltanto. Il contrario “se un endomorfismo è diagonalizzabile, allora esso ha n autovalori distinti” è falso, come può essere dedotto dagli Esempi 32.14-2 e 31.39-2.

Lezione 32. Diagonalizzazione

32–4

Non daremo la dimostrazione di questa proposizione, anche se non è difficile. Esempio 32.20. Abbiamo già dimostrato che l’endomorfismo fA dell’Esempio 31.3 è diagonalizzabile con la definizione. ◮ Ora, con la Proposizione 32.19, possiamo dedurlo semplicemente dicendo che fA ha due autovalori distinti, 1 e 2. ◮

◮ Esempio 32.14-1. ◮ Due come la dimensione di R2 .

Teorema 32.21 (Criterio di diagonalizzabilità). Un endomorfismo f Criterio di di uno spazio vettoriale finitamente generato V di dimensione n, con autovalori λ1 , λ2 , . . . , λk , è diagonalizzabile, se e solo se • il polinomio caratteristico pf ha n zeri, contato ciascuno con la  P propria molteplicità (ossia ki=1 m. a. f, λi = n);   • per ogni i = 1, 2, . . . , k, si ha l’uguaglianza m. g. f, λi = m. a. f, λi .

diagonalizzabilità

Non daremo la dimostrazione di questo teorema, perché è abbastanza lunga.

Esempio 32.22. Abbiamo già dimostrato che gli endomorfismi dell’Esempio 31.3 sono diagonalizzabili con la definizione. ◮ Ora, con il Teorema 32.21, possiamo dedurlo con le seguenti uguaglianze. dim(R2 ) m.a.(fA ,2) m.a.(fA ,1) z}|{ z}|{ z}|{ 1 = 2 ; 1 + 1. • z}|{ 1 e = • dim(R62[x]) m.a.(f,−3) m.a.(f,0) z}|{ z}|{ z}|{ 3 ; 2 = 1 + • z}|{ 1

z}|{ 1

2.

m.g.(f,0)



=

e

z}|{ 2

z}|{ 1 .

m.a.(f,−3)

m.g.(f,−3)

m.a.(f,0)

z}|{ z}|{ 1 1 =

m.a.(fA ,2)

m.g.(fA ,2)

m.a.(fA ,1)

m.g.(fA ,1)

=

z}|{ 2 .

Esempio 32.23. Consideriamo gli endomorfismi dell’Esempio 32.15. Possiamo ora dimostrare che infatti non sono diagonalizzabili. Ora, con il Teorema 32.21, possiamo dedurlo con le seguenti disuguaglianze. ◮ m.a.(fA ,2)

m.g.(fA ,2)

1.

z}|{ 1

6=

◮ Esempio 32.14.

z}|{ 2 , infatti abbiamo

• pfA (λ) = (λ − 2)2 , quindi m. a. (fA , 2) = 2; • m. g. (fA , 2) = 2 − rank(A − 2 · I) = 3 − 1 = 1. ◮

◮ Per ogni endomorfismo, una disuguaglianza è sufficiente per dimostrarlo. Nell’esempio sopra abbiamo avuto bisogno di tutte le uguaglianze perché stavamo dimostrando che quegli endomorfismi sono diagonalizzabili. ◮ Osservazione 31.21-3.

dim(R62[x]) z}|{ z}|{  ◮, infatti abbiamo pf (λ) = −λ λ2 + 1 , quin3 1 6= 2. di m. a. (f, 1) = 1. m.a.(f,1)

Corollario 32.24. Un endomorfismo f di uno spazio vettoriale finiλ1 , λ2 , . . . , λk , è tamente generato V di dimensione n, con autovalori  Pk diagonalizzabile, se e solo se i=1 m. g. f, λi = dim(V ).

◮ Nel membro sinistro c’è la somma delle molteplicità algebriche con un addendo soltanto, perché c’è solo un autovalore, che è 1.

Non daremo la dimostrazione di questo corollario, anche se non è difficile. Esempio 32.25. Abbiamo già dimostrato che gli endomorfismi dell’Esempio 31.3 sono diagonalizzabile con la definizione. ◮ Ora, con il Corollario 32.24, possiamo dedurlo con le seguenti uguaglianze. c 2014 Gennaro Amendola

Versione 1.0

◮ Esempio 32.14.

Lezione 32. Diagonalizzazione

dim(R2 )

m.g.(fA ,2)

m.g.(fA ,1)

32–5

z}|{ 2 ; dim(R62[x]) m.g.(f,−3) m.g.(f,0) z}|{ z}|{ z}|{ 3 ; 2 = 1 + 2.

1.

z}|{ 1

+

z}|{ 1

=

Osservazione 32.26. Sia f ∈ Lin (V , V ) un endomorfismo diagonalizzabile di uno spazio vettoriale finitamente generato V . Siano λ1 , λ2 , . . . , λn i suoi autovalori, e sia B = {v1 , v 2 , . . . , v n } una base formata da autovettori di f , con ciascun v i relativo a λi , per i = 1, . . . , n. ◮ Allora, ◮ Alcuni degli autovalori λ∗ possono essere uguali, quindi alcuni degli autovettori v ∗ abbiamo possono essere relativi allo stesso autova[f ]B B = Diag (λ1 , λ2 , . . . , λn ) ,

lore con molteplicità algebrica maggiore di 1.

infatti ogni v i è un autovettore relativo all’autovalore λi , quindi abbiamo f (v i ) = λi v i , le cui coordinate relative alla base B sono tutte 0, eccetto per l’i-esima coordinata che è λi . Notiamo che l’ordine dei λi nella diagonale coincide con quello dei corrispondenti v i nella base. Notiamo anche che la base B non è unica, infatti gli autovettori possono cambiare. Analogamente, supponiamo che una matrice A ∈ Kn,n sia diagonalizzabile. Siano λ1 , λ2 , . . . , λn i suoi autovalori, e sia B = {X1 , X2 , . . . , Xn } una base formata da autovettori dell’applicazione lineare fA , con ciascun Xi relativo a λi , per i = 1, . . . , n. ◮ Allora, abbiamo

◮ Alcuni degli autovalori λ∗ possono essere uguali, quindi alcuni degli autovettori X∗ possono essere relativi allo stesso autovalore con molteplicità algebrica maggiore di 1. ◮ ◮ Nella seconda uguaglianza abbiamo applicato il Corollario 26.13.

[fA ]B B = Diag (λ1 , λ2 , . . . , λn ) ,

◮ Inoltre, abbiamo ◮

−1  En · [fA ]EEnn · [id]EBn . Diag (λ1 , λ2 , . . . , λn ) = [fA ]B B = [id]B

La matrice di cambiamento di base [id]EBn è la matrice X 1 X 2 · · · X n le cui colonne sono gli autovettori. ◮ Quindi, una matrice diagonalizzante  per A è la matrice X 1 X 2 · · · X n le cui colonne sono gli autovettori trovati sopra. Notiamo che l’ordine dei λi nella diagonale coincide con quello dei corrispondenti Xi nella base. Come sopra, notiamo che la matrice diagonalizzante non è unica, infatti gli autovettori possono cambiare.



◮ Osservazione 26.5.

Esempio 32.27. Consideriamo le basi di autovettori trovati nell’Esempio 32.14. 1. Abbiamo [fA ]B B = Diag (2, 1).

Abbiamo anche C −1 AC = Diag (2, 1), dove la matrice C = [id]EB2   1 −1 è . 3 −2 Se cambiamo l’ordine   dei vettori colonna nella base B, ottenendo la −1 1 base B ′ = , , otteniamo un cambiamento nell’ordine −2 3 ′ degli autovalori nella matrice diagonale: [fA ]B B′ =Diag (1,  2), e −1 1 C −1 AC = Diag (1, 2), dove la matrice C = [id]EB2′ è . −2 3

2. Abbiamo [f ]B B = Diag (−3, −3, 0). Se cambiamo gli autovettori della base B, per esempio conside 2 ′ rando la base B = x − x, x2 + x + 1, 3x + 3 , ◮ ma mantenia-

c 2014 Gennaro Amendola

Versione 1.0

◮ x2 − x e x2 + x + 1 formano una base dell’autospazio   R62 [x] f,−3 = Span 2x2 + 1, −x2 + x .

Lezione 32. Diagonalizzazione

32–6

mo l’ordine degli autovalori, la matrice diagonale non cambia: ′ [f ]B B′ = Diag (−3, −3, 0).

Teorema 32.28. Ogni matrice simmetrica M ∈ Rn,n è diagonalizzabile.

Non daremo la dimostrazione di questo teorema, perché nella dimostrazione abbiamo bisogno di alcune definizioni che vedremo nelle seguenti lezioni.

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 32/S1 Diagonalizzazione 1

Sessione di Studio 32.1

Diagonalizzazione

Lezione 32. Diagonalizzazione

32–7

Sessione di Studio 32.1 

 −5 3 3 Esercizio 32.1. Dimostra che la matrice A = −3 1 3 è diagona−3 3 1 lizzabile. Scrivi una matrice diagonale coniugata ad essa e la matrice diagonalizzante corrispondente. Calcola A6 . Soluzione. Per dimostrare che la matrice è diagonalizzabile, applichiamo il criterio di diagonalizzabilità. ◮ Calcoliamo il polinomio caratteristico, che è   −5 − λ 3 3 pA (λ) = det  −3 1−λ 3  = −λ3 − 3λ2 + 4. −3 3 1−λ

◮ Teorema 32.21.

I suoi zeri, e quindi (tutti) gli autovalori di fA , sono 1 con m. a. (A, 1) = 1 e −2 con m. a. (A, −2) = 2, allora abbiamo m.a.(A,1)

z}|{ 1 +

dim(R3 )

m.a.(A,−2)

z}|{ 2

=

z}|{ 3 .

La molteplicità geometrica dell’autovalore 1 è 1, come quella algebrica, m.a.(A,1)

perché abbiamo 1 6 m. g. (A, 1) 6 che

z}|{ 1 . Per l’autovalore −2 abbiamo A−(−2)I

}| { −3 3 3 z}|{ 3 − rank −3 3 3 = 3 − 1 = 2, m. g. (A, −2) = −3 3 3 z 

dim(R3 )

m.a.(A,−2)

m.g.(A,−2)

quindi abbiamo

z}|{ 2

=

z}|{ 2

.



 1 0 0 La matrice diagonale coniugata ad A è D = 0 −2 0  Per 0 0 −2 calcolare la matrice diagonalizzante corrispondente calcoliamo una base di autovettori. ◮ ◮ • Un linearmente indipendente relativo all’autovalore 1 ◮ autovettore  1 ◮ è 1. ◮ ◮ 1

◮ Essa esiste perché abbiamo già dimostrato che A è diagonalizzabile. ◮ ◮ m. g. (A, 1) = 1. ◮ ◮ ◮ Abbiamo visto come trovare una base di un autospazio nella Lezione 31.

• Due autovettori indipendenti relativi all’autovalore −2 ◮ ◮ m. g. (A, −2) = 2.    linearmente  1 1 ◮ ◮ sono 0 e 1. ◮ ◮ Abbiamo visto come trovare una un autospazio nella Lezione 31. 1 0   1 1 1 Allora, una matrice diagonalizzante è C = 1 0 1. 1 1 0 6 −1 ◮ Osservazione 17.50. Per calcolare A , scriviamo A = CDC , e otteniamo ◮

c 2014 Gennaro Amendola

Versione 1.0

base di

Lezione 32. Diagonalizzazione

6

A = C ·D·C

 −1 6

32–8

6 volte

z

= C ·D·C

−1



}|  { −1 −1 · C ·D·C · ··· · C · D · C =

5 volte

}|   { = C · D · C −1 · C · D · C −1 · C · D · · · · · C −1 · C · D ·C −1 = z



5 volte

z }| { = C · D · D · D · · · · · D ·C −1 =       127 −63 −63 1 1 1 1 0 0 1 1 1 1 −63 . = C · D 6 · C −1 = 1 0 1 0 64 0  1 0 1 =  63 63 −63 1 1 1 0 0 0 64 1 1 0 Esercizio 32.2. Dimostra che la matrice M = zabile.



 7 −5 è diagonaliz10 −8

Soluzione. Per dimostrare che la matrice è diagonalizzabile, calcoliamo il polinomio caratteristico, che è   7−λ −5 pM (λ) = det = λ2 + λ − 6, 10 −8 − λ

i cui zeri sono 2 e −3. Visto che M è una matrice di ordine 2 con 2 autovalori distinti, essa è diagonalizzabile. ◮

Esercizio 32.3. Dimostra che la matrice B = lizzabile.



1 1 −1 3



non è diagona-

Soluzione. Per dimostrare che la matrice non è diagonalizzabile, applichiamo il criterio di diagonalizzabilità. ◮ Calcoliamo il polinomio caratteristico, che è   1−λ 1 pB (λ) = det = λ2 − 4λ + 4. −1 3 − λ

Esso ha un solo zero, e quindi fB ha un solo autovalore, ossia 2 con dim(R2 ) m.a.(B,2) z}|{ z}|{ 2 . Abbiamo che 2 = m. a. (B, 2) = 2, quindi abbiamo B−2I

z }| {  z}|{ −1 1 2 − rank m. g. (B, 2) = = 2 − 1 = 1, −1 1 dim(R2 )

m.a.(B,2)

m.g.(B,2)

allora abbiamo

z}|{ 1

c 2014 Gennaro Amendola

6=

◮ Proposizione 32.19.

z}|{ 2 , e quindi B non è diagonalizzabile.

Versione 1.0

◮ Teorema 32.21.

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 32/S2 Diagonalizzazione 1

Sessione di Studio 32.2

Diagonalizzazione

Lezione 32. Diagonalizzazione

32–9

Sessione di Studio 32.2 Esercizio 32.4. Le seguenti matrici sono C?      −4 1 2 1 0 1 1. . 2. −9 2 4. 3.  0 −9 6 −4 1 2 −3   1 0 0 0 0 0 0 −1  5.  0 −1 2 −1. 0 2 0 3

diagonalizzabili su R? E su    1 −2 2 −1 −2 4 0 . 4. 1 −2 −6. 1 2 0 1 3

Esercizio 32.5. Dimostra che le seguenti matrice sono diagonalizzabili. Per ciascuna di esse, scrivi una matrice diagonale a cui è coniugata e la matrice diagonalizzante corrispondente.       5 −1 −7 6 −1 −1 1 − i 1. . 2. 3 1 −1. 3. . 12 −1 −1 − i 1 1 −1 −3

c 2014 Gennaro Amendola

Versione 1.0

Lezione 32. Diagonalizzazione

32–10

Risultato dell’Esercizio 32.4. 1. No. No. 2. No. Sì. 3. Sì. Sì. 4. No. No. 5. No. No.     2 0 1 1 Risultato dell’Esercizio 32.5. 1. , . 0 3 4 3     1 1 1 0 0 0 2. 0 −1 0, −2 −1 1. 1 1 0 0 0 4     i 0 1 1 3. , . 0 −i i 1

c 2014 Gennaro Amendola

Versione 1.0

Esercizio 31.1.

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE 2010 COMPLEMENTI DI MATEMATICA 32/S3 Diagonalizzazione 1

Sessione di Studio 32.3

Diagonalizzazione

Lezione 32. Diagonalizzazione

32–11

Sessione di Studio 32.3 Letture supplementari possono essere le seguenti: • http://it.wikipedia.org/wiki/Diagonalizzabilità

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

#corso# INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA #insegnamento# 33 #lezione# Sottospazi affini #titolo# 1 #attività#

Lezione 33 Sottospazi affini

Lezione 33

Sottospazi affini In questa lezione introdurremo i sottospazi affini. Essi generalizzano la nozione di retta e piano nello spazio (e nel piano) euclideo. Essi possono essere pensati anche come una generalizzazione dei sottospazi vettoriali. Vedremo anche come essi sono legati ai sistemi di equazioni lineari.

33.1

Sottospazi affini

Definizione 33.1. Un sottospazio affine di uno spazio vettoriale V su un campo K è un sottoinsieme S di V della forma

Sottospazi affini

v + W = {v + w ∈ V | w ∈ W },

dove v ∈ V e W è un sottospazio vettoriale di V . Il sottospazio vettoriale W è detto giacitura di S. Esso è anche detto spazio delle differenze di S.

Osservazione 33.2. Il sottospazio affine S della definizione di sopra è soltanto un insieme. Ha una forma ben precisa, ossia S = v + W con v e W opportuni, ma la struttura v + W non fa parte della definizione di S.

Giacitura/spazio delle differenze di un sottospazio affine Vedremo il motivo di questo nome in seguito.

Esempio 33.3. In uno spazio vettoriale V ci sono sempre i due sottospazi affini {0} = 0 + {0} e V = 0 + V .

Esempio 33.4. 1. Consideriamo la retta r nel piano euclideo V 2E (risp. nello spazio euclideo V 3E ) mostrata nella figura. Abbiamo che ogni elemento di r può essere scritto come v + w dove w è un qualsiasi vettore nella retta r0 parallela a r passante per O, e viceversa. Quindi, abbiamo r = v + r0 . Visto che la retta r0 è un sottospazio vettoriale di V 2E ◮, r è un sottospazio affine di V 2E (risp. V 3E ). 2. Consideriamo il piano π nello spazio euclideo V 3E mostrato nella figura. Abbiamo che ogni elemento di π può essere scritto come v + w dove w è un qualsiasi vettore nel piano π0 parallelo a π passante per O, e viceversa. Quindi, abbiamo π = v+π0 . Visto che ◮, π è un sottospazio il piano π0 è un sottospazio vettoriale di V 3E ◮ affine di V 3E .

Come detto nella Notazione 7.1, consideriamo sempre dato un sistema di riferimento cartesiano (O; x) per la retta, o (O; x, y) per il piano, o (O; x, y, z) per lo spazio, senza scriverlo esplicitamente.

◮ Esempio 12.5-5.

◮ ◮ Esempio 12.5-5.

c 2014 Gennaro Amendola

Versione 1.0

Lezione 33. Sottospazi affini

33–2

3. Consideriamo il sottoinsieme {p ∈ R[x] | p(0) = 1} di K[x]. Visto che ogni polinomio p(x) tale che p(0) = 1 può essere scritto come 1 + q(x) dove q(x) = p(x) − 1 e q(0) = p(0) − 1 = 1 − 1 = 0, e viceversa, allora abbiamo {p ∈ R[x] | p(0) = 1} = 1 + {q ∈ R[x] | q(0) = 0}.

L’insieme {q ∈ R[x] | q(0) = 0} è un sottospazio vettoriale di K[x], quindi {p ∈ R[x] | p(0) = 1} è un sottospazio affine di K[x].

Osservazione 33.5. I sottospazi affini di uno spazio vettoriale sono sempre non vuoti. Infatti, se S = v + W è un sottospazio affine di V , abbiamo v ∈ S perché v = v + 0. Proposizione 33.6. Sia S = v + W un sottospazio affine di uno spazio vettoriale V sul campo K. Il sottospazio vettoriale W è univocamente determinato da S, mentre il vettore v può essere sostituito con un qualsiasi elemento di S.

Non daremo la dimostrazione di questa proposizione, anche se non è difficile. Esempio 33.7. Consideriamo i sottospazi affini dell’Esempio 33.4. 1. Possiamo cambiare il vettore v con il vettore v ′ , mostrato nella figura, ottenendo un’altra struttura r = v ′ + r0 , ma la giacitura resta r0 . 2. Possiamo cambiare il vettore v con il vettore v ′ , mostrato nella figura, ottenendo un’altra struttura π = v ′ + π0 , ma la giacitura resta π0 . 3. Possiamo cambiare il polinomio 1 con ogni altro polinomio tale che p(0) = 1, come per esempio x + 1, ottenendo un’altra struttura {p ∈ R[x] | p(0) = 1} = (x + 1) + {q ∈ R[x] | q(0) = 0},

ma la giacitura resta {q ∈ R[x] | q(0) = 0}.

Osservazione 33.8. Se S = v +W è un sottospazio affine di uno spazio vettoriale V , la funzione f : W ∋ w 7−→ v + w ∈ S

è bigettiva. Infatti, è surgettiva per definizione, ◮ ed è iniettiva perché se f (w) = f (w′ ) allora v + w = v + w′ e quindi w = w′ . Questa funzione, però, dipende dall’elemento v. Questo ci dice che la giacitura di un sottospazio affine lo parametrizza, ma che questa parametrizzazione dipende dalla scelta di un elemento del sottospazio affine. Osservazione 33.9. L’insieme delle soluzioni di un sistema di equazioni lineari compatibile A · X = B con X ∈ Kn è un sottospazio affine di Kn . Infatti, l’insieme delle soluzioni S può essere riscritto come ◮

◮ Definizione 33.1.

◮ Proposizione 27.24.

S = X + S0 ,

dove X è un qualsiasi elemento di S e S0 è l’insieme delle soluzioni del sistema di equazioni lineari omogeneo associato A · X = 0. L’insieme S0 è un sottospazio vettoriale di Kn , ◮ quindi S = X + S0 è un sottospazio affine di Kn . c 2014 Gennaro Amendola

Versione 1.0

◮ Osservazione 27.21.

Lezione 33. Sottospazi affini

33–3

Osservazione 33.10. Un sottospazio affine S di uno spazio vettoriale V è un sottospazio vettoriale di V , se e solo se 0 ∈ S. Infatti, se S è un sottospazio vettoriale di V , allora 0 ∈ S. Viceversa, se 0 ∈ S, allora S = 0 + W , dove W è la giacitura di S, ◮ ossia S = W è un sottospazio vettoriale di V .

◮ Proposizione 33.6.

Osservazione 33.11. Un sottospazio affine può essere pensato come un sottospazio vettoriale che non ha nessun elemento speciale (che nei sottospazi vettoriali è il vettore nullo). Anche se, come visto nell’osservazione precedente, un sottospazio affine può essere anche un sottospazio vettoriale, anche in tal caso l’elemento nullo non gioca un ruolo speciale (diverso da quello giocato dagli altri elementi). In un sottospazio affine non è sempre possibile sommare gli elementi. In effetti, si può dimostrare che la somma può essere fatta se e solo se il sottospazio affine contiene il vettore nullo, ossia se e solo se è un sottospazio vettoriale. Tuttavia, è possibile, in un certo senso, “fare le differenze” tra elementi di un sottospazio affine, anche se il risultato appartiene alla giacitura del sottospazio affine. Osservazione 33.12. Sia S un sottospazio affine di uno spazio vettoriale V sul campo K, con giacitura W . La differenza tra due elementi di S è un elemento di W . Infatti, se v, v ′ ∈ S allora v ∈ S = v ′ + W , ◮ e quindi esiste w ∈ W tale che v = v ′ + w, ossia v − v ′ = w ∈ W . Esiste quindi una funzione  S × S ∋ v, v ′ 7−→ v − v ′ ∈ W .

◮ Proposizione 33.6.

Esempio 33.13. Consideriamo i sottospazi affini dell’Esempio 33.4. 1. La differenza tra i due vettori v e v ′ di r mostrati nella figura è un vettore w in r0 . 2. La differenza tra i due vettori v e v ′ di π mostrati nella figura è un vettore w in π0 . 3. La differenza tra i due polinomi p(x) e p′ (x) di {p ∈ R[x] | p(0) = 1} è un elemento di {q ∈ R[x] | q(0) = 0}, infatti abbiamo (p − q)(0) = p(0) − q(0) = 1 − 1 = 0. Proposizione 33.14. La giacitura di un sottospazio affine S = v + W di uno spazio vettoriale V può essere definita intrinsecamente come

Questa proposizione spiega il nome “spazio delle differenze” della giacitura di un sottospazio affine (Definizione 33.1).

W = {v 2 − v 1 | v 1 , v 2 ∈ S}. Dimostrazione. L’inclusione {v 2 − v 1 | v 1 , v 2 ∈ S} ⊂ W segue dall’Osservazione 33.12. Dimostriamo quindi l’inclusione opposta: W ⊂ {v 2 − v 1 | v 1 , v 2 ∈ S}. Consideriamo un vettore w ∈ W . Notiamo che w = (v + w) − v e che v + w ∈ v + W = S, quindi w ∈ {v 2 − v1 | v 1 , v 2 ∈ S}. Definizione 33.15. La dimensione di un sottospazio affine S di uno spazio vettoriale è la dimensione della sua giacitura, ed è indicata con dim(S). Esempio 33.16. Consideriamo i sottospazi affini dell’Esempio 33.4.

c 2014 Gennaro Amendola

Versione 1.0

Dimensione di un sottospazio affine

Lezione 33. Sottospazi affini

33–4

1. La dimensione del sottospazio affine r è 1, infatti la dimensione della giacitura r0 è 1 ◮. 2. La dimensione del sottospazio affine π è 2, infatti la dimensione della giacitura π0 è 2 ◮. 3. La dimensione del sottospazio affine {p ∈ R[x] | p(0) = 1} di R[x] non può essere definita infatti la giacitura {p ∈ R[x] | p(0) = 0} non è finitamente generata. ◮ Se invece consideriamo il sottospazio affine {p ∈ R6d [x] | p(0) = 1} di R6d [x], la giacitura è {p ∈ R6d [x] | p(0) = 0}, che ha dimensione d. ◮ Quindi, il sottospazio affine {p ∈ R6d [x] | p(0) = 1} ha dimensione d. Notazione 33.17. Quando abbiamo a che fare con sottospazi affini, specialmente con il piano euclideo e con lo spazio euclideo, i loro elementi sono solitamente indicati con una lettera maiuscola dell’alfabeto latino, come P o Q, perché sono pensati come punti, e sono anche chiamati punti. Gli elementi della giacitura sono invece pensati come vettori, quindi sono indicati con lettere minuscole dell’alfabeto latino in grassetto. Quindi, scriviamo una cosa del tipo

◮ Osservazione 15.29-1 (per il piano euclideo V 2E ) e Osservazione 15.29-2 (per lo spazio euclideo V 3E ). ◮ Osservazione 15.29-2.

◮ Lezione 15.

Qui fissiamo il massimo grado del polinomio. ◮ Abbiamo visto come trovare la dimensione di uno spazio vettoriale nella Lezione 15.

Punto

P = P0 + v. Esempio 33.18. 1. L’Esempio 33.4-1 diventa come segue. Consideriamo la retta r nel piano euclideo V 2E (risp. nello spazio euclideo V 3E ) mostrata nella figura. Abbiamo che ogni punto di r può essere scritto come P + w dove w è un qualsiasi vettore nella retta r0 parallela a r passante per O, e viceversa. Quindi, abbiamo r = P + r0 . Visto che la retta r0 è un sottospazio vettoriale di V 2E , r è un sottospazio affine di V 2E (risp. V 3E ). 2. L’Esempio 33.4-2 diventa come segue. Consideriamo il piano π nello spazio euclideo V 3E mostrato nella figura. Abbiamo che ogni punto di π può essere scritto come P +w dove w è un qualsiasi vettore nel piano π0 parallelo a π passante per O, e viceversa. Quindi, abbiamo π = P +π0 . Visto che il piano π0 è un sottospazio vettoriale di V 3E , π è un sottospazio affine di V 3E .

Forma parametrica e cartesiana/implicita Sia S un sottospazio affine di uno spazio vettoriale finitamente generato V . Chiamiamo m la dimensione di S. Se S = P0 +W , possiamo scegliere una base B = {v 1 , v 2 , . . . , v m } della giacitura W di S e scrivere ogni punto P di S come P = P0 + λ1 v 1 + λ2 v 2 + · · · + λm v m

(33.1)

in modo unico, ossia con i coefficienti λ∗ univocamente determiminati. ◮ Abbiamo parametrizzato S, quindi diamo la seguente definizione.

Definizione 33.19. L’uguaglianza vettoriale (33.1) è detta forma parametrica di S. Il punto P0 è detto punto base della parametrizzazione. I coefficienti λ∗ sono detti parametri della parametrizzazione. c 2014 Gennaro Amendola

Versione 1.0

◮ Osservazione 33.8 e Proposizione 14.24.

Forma parametrica Punto base Parametri

Lezione 33. Sottospazi affini

33–5

Osservazione 33.20. Il sottospazio affine S (a meno che non si riduca a un solo punto) ha infinite espressioni parametriche: ciascuna dipende dalla scelta del punto base e della base della giacitura. Definizione 33.21. Se P = P0 + λv è una forma parametrica di un sottospazio affine di dimensione 1 in V 2E o V 3E , il vettore v è detto vettore direttore. ◮ Proposizione 33.22. L’insieme delle soluzioni di un sistema di equazioni lineari compatibile A·X = B con X ∈ Kn è un sottospazio affine di Kn . Viceversa, ogni sottospazio affine di Kn è l’insieme delle soluzioni di un sistema di equazioni lineari compatibile A · X = B con X ∈ Kn . Dimostrazione. (∗∗) La prima affermazione è stata dimostrata nell’Osservazione 33.9. Dimostriamo l’implicazione inversa: se S = P + W è un sottospazio affine di Kn , esiste un sistema di equazioni lineari compatibile A · X = B con X ∈ Kn che ha come insieme delle soluzioni proprio S. Sia BW = {v 1 , v 2 , . . . , v m } una base di W . ◮ Quindi, esistono vettori v m+1 , v m+2 , . . . , v n tali che BV = {v 1 , v 2 , . . . , v m , v m+1 , v m+2 , . . . , v n } è una base di Kn . ◮ Consideriamo l’applicazione lineare f : Kn → Kn tale che f (vi ) = 0 per i = 1, 2, . . . , m, e f (vi ) = v i for i = m + 1, m + 2, . . . , n. ◮ Abbiamo rank(f ) = n − m e quindi ◮ L’applicazione lineare f è l’applicaKer(f ) = Span (v 1 , v 2 , . . . , v m ). ◮ ◮ zione lineare fA associata ad una matrice A ∈ Kn,n . ◮ ◮ L’insieme delle soluzioni del sistema di equazioni lineari omogeneo A · X = 0 è il nucleo di fA , ◮ ossia W . Se ora chiamiamo B = fA (P ), abbiamo che S = P +W ◮ è l’insieme delle soluzioni del sistema di equazioni lineari A·X = B. ◮ Osservazione 33.23. Nella dimostrazione precedente, in realtà abbiamo anche dimostrato che la giacitura di un sottospazio affine di Kn coincide con l’insieme delle soluzioni del sistema di equazioni lineari omogeneo associato al sistema di equazioni lineari A · X = B.

Vettore direttore ◮ Ha la stessa direzione di un qualsiasi vettore non nullo della giacitura del sottospazio affine.

◮ m = dim(S). ◮ Teorema 15.25. ◮ Per la Proposizione 22.12, f esiste ed è unica. ◮ ◮ Abbiamo vi ∈ Ker(f ) for i = 1, 2, . . . , m, quindi Ker(f ) ⊃ Span (v1 , v 2 , . . . , vm ); inoltre, vale l’uguaglianza perché rank(f ) = n − m. ◮ ◮ ◮ Proposizione 22.25. ◮ Osservazione 27.21. ◮ ◮ Proposizione 27.24.

Osservazione 33.24. Se S è un sottospazio affine di Kn e A · X = B con X ∈ Kn è un sistema di equazioni lineari compatibile che ha S come insieme delle soluzioni, abbiamo dim(S) = n − rank(A).

Infatti, la dimensione di S è la dimensione della sua giacitura, che, come visto nella dimostrazione precedente, è il nucleo dell’applicazione lineare fA . Il rango di fA è rank(A), ◮ e quindi la dimensione della giacitura è n − rank(A).

◮ Lemma 25.14.

Corollario 33.25. Un sottospazio affine S di Kn con S 6= Kn coincide con l’insieme delle soluzioni di un sistema di equazioni lineari compatibile A · X = B con X ∈ Kn e con n − dim(S) equazioni.

Dimostrazione. Dalla matrice A ∈ Kn,n ottenuta nella dimostrazione precedente possono essere eliminate n−rank(A) righe, che sono il risultato di combinazioni lineari delle restanti. ◮ Il numero delle righe rimanenti è rank(A) = n − dim(S) per l’osservazione precedente.

c 2014 Gennaro Amendola

Versione 1.0

◮ Punto 2 dell’Osservazione 29.4.

Lezione 33. Sottospazi affini

33–6

Osservazione 33.26. Se il sottospazio affine S è tutto Kn non possiamo considerare un sistema senza equazioni, ma possiamo usare l’equazione 0 = 0. Definizione 33.27. Sia S un sottospazio affine di Kn . Un sistema di equazioni lineari A · X = B con X ∈ Kn e con n − dim(S) equazioni che ha come insieme delle soluzioni proprio S è detto forma cartesiana o forma implicita di S. Se S = Kn , una forma cartesiana o una forma implicita di S è l’equazione 0 = 0.

Forma cartesiana/implicita

Definizione 33.29. Se AX = B è una forma implicita di un sottospazio affine S di dimensione 1 in V 2E o di dimensione 2 in V 3E ◮, la matrice t ◮, quindi la sua trasposta A è un vettore dei coefficienti A ha una riga ◮ ◮ colonna che è detto vettore di giacitura o vettore normale. ◮ ◮◮

Vettore di giacitura/normale

Un sistema di equazioni lineari come richiesto esiste sempre per il Corollario 33.25.

Osservazione 33.28. Il sottospazio affine S (a meno che non sia tutto Kn ) ha infinite espressioni implicite, perché ogni sistema di equazioni lineari ha infiniti sistemi di equazioni lineari equivalenti con lo stesso numero di equazioni.

Osservazione 33.30. Abbiamo già introdotto la forma implicita di rette e piani nel piano e nello spazio nella Lezione 7, quindi ci riferiamo alla Lezione 7 per le definizioni e le proprietà, senza dirlo ulteriormente esplicitamente. 1. Consideriamo una retta r nel piano euclideo V 2E , che è un sotto◮ La forma implicita di r è l’equazione spazio affine di V 2E . ◮ ax + by + c = 0

◮ Vedremo che nel primo caso S è una retta, nel secondo S è un piano.

◮ ◮ In entrambi i casi, infatti 2 − 1 = 3 − 2 = 1. ◮ ◮ ◮ Esso definisce univocamente la giacitura, la cui equazione è A · v = 0. ◮ Vedremo nelle seguenti lezioni il motivo per cui esso è chiamato “normale”.

Come detto nella Notazione 7.1, consideriamo sempre dato un sistema di riferimento cartesiano (O; x) per la retta, o (O; x, y) per il piano, o (O; x, y, z) per lo spazio, senza scriverlo esplicitamente. ◮ ◮ Esempio 33.4-1.

con (a, b) 6= (0,  0).  L’equazione può essere scritta in forma vetto x  riale: a b = −c . y La forma implicita del sottospazio affine r è il sistema di equazioni lineari AX = B con matrice dei coefficienti A = a b , vettore    x delle incognite X = e colonna dei termini noti B = −c . Il y dim(V 2E ) rank(A) z}|{ z}|{ ◮. Il rango diAè 1 ◮ e la dimensione di r è 1 = 2 − 1 ◮ a vettore è il vettore di giacitura della forma implicita di r. b La forma parametrica della retta r è

◮ (a, b) 6= (0, 0).

◮ ◮ Osservazione 33.24.

P = P0 + λv con v = 6 0 ◮, o, in coordinate,       x x0 v = +λ x , y y0 vy           x x0 vx v 0 dove P = , P0 = ev = , con x 6= . Il puny y0 vy vy 0 to P0 è il punto base, λ è il parametro ◮, e v è il vettore direttore. La forma parametrica può anche essere scritta esplicitamente:  x = x0 + λvx . y = y0 + λvy c 2014 Gennaro Amendola

Versione 1.0

◮ v forma una base della giacitura r0 , quindi deve essere non nullo.

◮ dim(r) = 1.

Lezione 33. Sottospazi affini

33–7

2. Consideriamo un piano π nello spazio euclideo V 3E , che è un sottospazio affine di V 3E . ◮ La forma implicita di π è l’equazione

◮ Esempio 33.4-2.

ax + by + cz + d = 0 con (a, b, c) 6= (0, 0, 0).  L’equazione può essere scritta in forma  x  vettoriale: a b c y  = −d . z La forma implicita del sottospazio affine r è il sistema di equazioni  lineari AX = B con matrice dei coefficienti A = a b c , vettore   x  delle incognite X = y  e colonna dei termini noti B = −d . Il z dim(V 3E ) rank(A) z}|{ z}|{ ◮. Il rango diA  è 1 ◮ e la dimensione di π è 2 = 3 − 1 ◮ a vettore  b  è il vettore di giacitura della forma implicita di π. c La forma parametrica del piano π è

◮ (a, b, c) 6= (0, 0, 0).

◮ ◮ Osservazione 33.24.

P = P0 + λv + λ′ v ′ con v e v′ linearmente independenti ◮, o, in coordinate,        ′ x x0 vx vx y  =  y0  + λ vy  + λ′ vy′  , z z0 vz vz′        ′   vx x x0 vx vx dove P = y , P0 =  y0 , v = vy  e v ′ = vy′ , con vy  z z0 vz vz vz′  ′ vx e vy′  linearmente independenti. Il punto P0 è il punto base, e vz′ λ e λ′ sono i due parametri ◮. La forma parametrica può anche essere scritta esplicitamente:   x = x0 + λvx + λ′ vx′ y = y0 + λvy + λ′ vy′ .  z = z0 + λvz + λ′ vz′

3. Consideriamo una retta r nello spazio euclideo V 3E , che è un sottospazio affine di V 3E . ◮ La forma implicita di r è il sistema  a1 x + b1 y + c1 z + d1 = 0 a2 x + b2 y + c2 z + d2 = 0

con i coefficienti a1 , b1 , c1 e a2 , b2 , c2 non proporzionali.  Il siste   x a1 b1 c1   ma può essere scritto in forma vettoriale: y = a2 b2 c2 z   −d1 . −d2

c 2014 Gennaro Amendola

Versione 1.0

◮ v e v ′ formano una base della giacitura π0 , quindi devono essere linearmente independenti.

◮ dim(π) = 2.

◮ Esempio 33.4-1.

Lezione 33. Sottospazi affini

33–8

La forma implicita del sottospazio affine r è il sistema  di equazioni  a1 b1 c1 lineari AX = B con matrice dei coefficienti A = , a2 b2 c2   x vettore delle incognite X = y  e colonna dei termini noti B = z   −d1 . Il rango di A è 2 ◮ e la dimensione di r è −d2 dim(V 3E ) rank(A) z}|{ z}|{ 1= 3 − 2 ◮. La forma parametrica della retta r è

◮ I coefficienti a1 , b1 , c1 e a2 , b2 , c2 non sono proporzionali.

◮ Osservazione 33.24.

P = P0 + λv con v = 6 0 ◮, o, in coordinate,       x x0 vx  y  =  y 0  + λ  vy  , z z0 vz           x x0 vx vx 0 dove P = y , P0 =  y0  e v = vy , con vy  6= 0. z z0 vz vz 0 Il punto P0 è il punto base, λ è il parametro ◮, e v è il vettore direttore. La forma parametrica può anche essere scritta esplicitamente:   x = x0 + λvx y = y0 + λvy .  z = z0 + λvz

Esempio 33.31. 1. Consideriamo la retta r nel piano euclideo V 2E con forma implicita x − 3y + 4=0. L’equazione può essere scritta  x  in forma vettoriale: 1 −3 = −4 . Notiamo che il rango y    1 della matrice dei coefficienti 1 −3 è 1. Il vettore è il −3 ◮ vettore di giacitura. Un’altra  forma  implicita è 2x − 6y + 8 = 0 ; 2 il suo vettore di giacitura è . −6       x −1 3 ◮ Una forma parametrica della retta r è = +λ . Il y 1 1     −1 3 punto è il punto base e è il vettore direttore. Notiamo 1 1   3 che è non nullo. La forma parametrica può anche essere scritta 1  x = −1 + 3λ esplicitamente: . Un’altra forma parametrica è y =1+λ         x 5 6 ◮ 5 = +λ ; il punto base è e il vettore direttore y 3 2 3   6 è . 2 c 2014 Gennaro Amendola

Versione 1.0

◮ v forma una base della giacitura r0 , quindi deve essere non nullo.

◮ dim(r) = 1.

◮ L’equazione x − 3y + 4 = 0 può essere moltiplicata per un qualsiasi numero reale non nullo.

◮ Vedremo sotto come trovare una forma parametrica da una forma implicita.

  3 può essere molti1 plicato per un qualsiasi numero reale non nullo, e il punto base può essere sostituito con un punto qualsiasi di r.

◮ Il vettore direttore

Lezione 33. Sottospazi affini

33–9

2. Consideriamo il piano π nello spazio euclideo V 3E con forma implicita 3x − y − 5z − 2 = 0.L’equazione può essere scritta in forma  x   vettoriale: 3 −1 −5 y  = 2 . Notiamo che il rango della z   3  matrice dei coefficienti 3 −1 −5 è 1. Il vettore −1 è il vet5 tore di giacitura. Un’altra forma implicita è −3x + y + 5z + 2 = 0 ◮;   −3 il suo vettore di giacitura è  1 . 5       x 1 1 Una forma parametrica del piano π è y  = −4 + λ 3 + z 1 0       1 0 1 λ′ −5. ◮ Il punto −4 è il punto base. Notiamo che 3 e 0 1 1   0 −5 sono linearmente independenti. La forma parametrica può 1   x =1+λ anche essere scritta esplicitamente: y = −4 + 3λ − 5λ′ . Un’al z = 1 + λ′         x 2 1 −1 ′        tra forma parametrica è y = −6 + λ −2 + λ −8. ◮ z 2 1 1 3. Consideriamo la retta r nello spazio euclideo V 3E con forma im x + 2y − z − 2 = 0 plicita . L’equazione può essere scritta in x + 3y + 2z + 1 = 0     x   1 2 −1   2 forma vettoriale: y = . Notiamo che il ran1 3 2 −1 z   1 2 −1 go della matrice dei coefficienti è 2. Un’altra forma 1 3 2  2x + 5y + z − 1 = 0 ◮ implicita è . y + 3z + 3 = 0       x −6 7 ◮ Una forma parametrica della retta r è y  =  3  +λ −3. ◮ z −2 1     −6 7 Il punto  3  è il punto base e −3 è il vettore direttore. −2 1   7 Notiamo che −3 è non nullo. La forma parametrica può anche 1

c 2014 Gennaro Amendola

Versione 1.0

◮ L’equazione 3x − y − 5z − 2 = 0 può essere moltiplicata per un qualsiasi numero reale non nullo.

◮ Vedremo sotto come trovare una forma parametrica da una forma implicita.

    1 0 ◮ I due vettori 3 e −5 possono essere 0 1 sostituiti con una qualsiasi coppia di vettori che formano una base della giacitura di π, e il punto base può essere sostituito con un punto qualsiasi di π.



x + 2y − z − 2 = 0 può esx + 3y + 2z + 1 = 0 sere sostituito con un qualsiasi sistema di equazioni lineari con due equazioni equivalente ad esso.

◮ Il sistema

◮ ◮ Vedremo sotto come trovare una forma parametrica da una forma implicita.

Lezione 33. Sottospazi affini

33–10

  x = −6 + 7λ essere scritta esplicitamente: y = 3 − 3λ . Un’altra forma  z = −2 + λ         x 1 −7 1 parametrica è y  =  0  + λ  3  ◮; il punto base è  0  z −1 −1 −1   −7 e il vettore direttore è  3 . −1

Osservazione 33.32. Per trasformare una forma implicita in una forma parametrica di un sottospazio affine S di Kn è sufficiente risolvere il sistema di equazioni lineari. Ossia, se abbiamo la forma implicita A · X = B del sottospazio affine S di Kn , possiamo trovare le soluzioni X = X (λ1 , λ2 , . . . , λn−r ) del sistema A · X = B, che dipendono dagli n − r parametri λ1 , λ2 , . . . , λn−r , dove r = rank(A). ◮ In forma vettoriale abbiamo X = X0 + λ1 v 1 + λ2 v 2 + . . . + λn−r v n−r , che è una forma parametrica di S.

Osservazione 33.33. Consideriamo i sottospazi affini dell’Osservazione 33.30. 1. Per trasformare la forma implicita ax+by +c = 0, o AX = B,  della  x 2 retta r nel piano euclideo V E in una forma parametrica = y     x0 v + λ x , risolviamo l’equazione, ma non abbiamo nessuna y0 vy formula generale. Tuttavia, visto che il rango della matrice dei coefficienti A del sistema di una equazione lineare AX = B è 1, esso 2 ha ∞dim(V E )−rank(A) = ∞2−1 = ∞1soluzioni,   quindi  possiamo  x x0 vx scrivere le soluzioni del sistema come = +λ con y y0 vy λ ∈ R. 2. Per trasformare la forma implicita ax + by + cz + d = 0, o AX = B, 3 del pianoπ nello spazio     euclideo  ′VE in una forma parametrica vx x x0 vx y  =  y0  + λ vy  + λ′ vy′ , risolviamo l’equazione, ma z z0 vz vz′ non abbiamo nessuna formula generale. Tuttavia, visto che il rango della matrice dei coefficienti A del sistema di una equazione lineare 3 AX = B è 1, esso ha ∞dim(V E )−rank(A) = ∞3−1 = ∞2 soluzioni,   x  quindi possiamo scrivere le soluzioni del sistema come y  = z      ′ x0 vx vx  y0  + λ vy  + λ′ vy′  con λ, λ′ ∈ R. z0 vz vz′

c 2014 Gennaro Amendola

Versione 1.0



 7 ◮ Il vettore direttore −3 può essere mol1 tiplicato per un qualsiasi numero reale non nullo, e il punto base può essere sostituito con un punto qualsiasi di r.

Non è importante il metodo che utilizziamo per trovare le soluzioni.

◮ Osservazione 27.28.

Lezione 33. Sottospazi affini

33–11 

a1 x + b1 y + c1 z + d1 = 0 , a2 x + b2 y + c2 z + d2 = 0 3 o AX = B, della  retta  rnel piano  euclideo V E in una forma x x0 vx parametrica y  =  y0  + λ vy , risolviamo il sistema, ma z z0 vz non abbiamo nessuna formula generale. Tuttavia, visto che il rango della matrice dei coefficienti A del sistema di due equazioni lineari 3 AX = B è 2, esso ha ∞dim(V E )−rank(A) = ∞3−2 = ∞1 soluzioni,   x  quindi possiamo scrivere le soluzioni del sistema come y  = z     x0 vx  y0  + λ vy  con λ ∈ R. z0 vz

3. Per trasformare la forma implicita

Esempio 33.34. Consideriamo i sottospazi affini dell’Esempio 33.31. 1. Per trasformare la forma implicita x − 3y + 4 = 0 della retta r in una forma parametrica, risolviamo l’equazione, ottenendo (x, y) = ◮ una forma parametrica di r è (−4  + 3λ,  λ)con λ∈R. Quindi,  x −4 3 x = −4 + 3λ = +λ , ossia . y 0 1 y=λ 2. Per trasformare la forma implicita 3x − y − 5z − 2 = 0 del piano π in una forma parametrica, risolviamo l’equazione, ottenendo ′ ′ ′ ◮ (x, y, z) = (λ, −2 + 3λ  − 5λ una for , λ )conλ, λ ∈  R.  Quindi,   x 0 1 0 ma parametrica di π è y  = −2 + λ 3 + λ′ −5, ossia z 0 0 1   x=λ y = −2 + 3λ − 5λ′ .  z = λ′  x + 2y − z − 2 = 0 3. Per trasformare la forma implicita delx + 3y + 2z + 1 = 0 la retta r in una forma parametrica, risolviamo il sistema, ot◮ tenendo (x, y, z) = (8 + 7λ, −3  −3λ, λ)  con λ ∈ R. Quindi, x 8 7 una forma parametrica di r è y  = −3 + λ −3, ossia z 0 1   x = 8 + 7λ y = −3 − 3λ .  z=λ

Osservazione 33.35. Per trasformare una forma parametrica in una forma implicita di un sottospazio affine S di Kn è sufficiente eliminare i parametri. Una forma parametrica P = P0 + λ1 v 1 + λ2 v 2 + · · · + λm v m

può essere pensata come un sistema di n equazioni lineari (una per ogni coordinata) e n + m incognite (le n coordinate e gli m parametri). Per identificare un punto sono sufficienti le n coordinate, quindi i parametri c 2014 Gennaro Amendola

Versione 1.0

◮ Abbiamo visto come risolvere le equazioni nella Lezione 4.

◮ Abbiamo visto come risolvere i sistemi nella Lezione 4.

◮ Abbiamo visto come risolvere le equazioni nella Lezione 4.

Lezione 33. Sottospazi affini

33–12

non sono necessari. Trovando uno dopo l’altro i parametri, e sostituendoli nelle altre equazioni, otteniamo n − m equazioni che formano un sistema lineare, che è una forma implicita di S. Un modo più teorico per trovare una forma implicita di S consiste nel riscrivere l’espressione parametrica come P − P0 = λ1 v 1 + λ2 v 2 + · · · + λm v m .

Ossia, P ∈ S se e solo se P −P0 ∈ Span (v 1 , v 2 , . . . , v m ). Questo succede se e solo se i vettori v 1 , v 2 , . . . , v m , P −P0 sono linearmente dipendenti. ◮ Ciò è equivalente a chiedere che la matrice  v 1 v2 . . . v m P − P0 ,

scritta con le colonne, abbia rango strettamente minore di k + 1, ossia che tutti i minori di ordine k + 1 siano nulli. Ogni minore produce un’equazione, e alla fine otteniamo un sistema lineare. Se il sistema ha n − m equazioni abbiamo finito, altrimenti eliminiamo equazioni dipendenti dalle altre finché non ne otteniamo n − m. Il sistema trovato è una forma implicita di S.

◮ Proposizione 13.25.

ll sistema ha sempre più equazioni di quelle necessarie (sono almeno n), eccetto nel caso in cui m = n − 1 dove si ottiene una sola equazione.

Osservazione 33.36. Consideriamo i sottospazi affini dell’Osservazione 33.30.       x x0 v 1. Per trasformare la forma parametrica = +λ x , y y0 vy 2 della retta r nel piano euclideo V E in una forma implicita ax + by + c = 0, o AX = B, eliminiamo il parametro dalla forma parametrica. Abbiamo infatti   una formula generale,   abbiamo che vx x − x 0 vx x − x 0 rank < 2, quindi det = 0. Allroa, vy y − y 0 vy y − y 0 ◮ Vedremo negli esercizi alcuni esempi. otteniamo l’equazione vx (y − y0 ) − vy (x − x0 ) = 0. ◮       x x0 vx      2. Per trasformare la forma parametrica y = y0 + λ vy  + z z0 vz  ′ vx λ′ vy′ , del piano π nello spazio euclideo V 3E in una forma implivz′ cita ax + by + cz + d = 0, o AX = B, eliminiamo i parametri dalla forma parametrica. Abbiamo una formula generale, infatti abbia   vx vx′ x − x0 vx vx′ x − x0 mo che rank vy vy′ y − y0  < 3, quindi det vy vy′ y − y0  = vz vz′ z − z0 vz vz′ z − z0 ◮ Vedremo negli esercizi alcuni esempi. 0, che produce un’equazione lineare. ◮       x x0 vx 3. Per trasformare la forma parametrica y  =  y0  + λ vy , z z0 v  z a1 x + b1 y + c1 z + d1 = 0 della retta r nello spazio euclideo V 3E in una forma implicita , a2 x + b2 y + c2 z + d2 = 0 o AX = B, eliminiamo il parametro dalla forma parametrica.  Ab vx x − x 0 biamo una formula quasi generale, infatti abbiamo che rank vy y − y0  < vz z − z0 c 2014 Gennaro Amendola

Versione 1.0

Lezione 33. Sottospazi affini

2, quindi   v   det x      vy  v det x    vz    v   det y vz

33–13

 x − x0 =0 y − y0  x − x0 =0 . z − z0 y − y0 =0 z − z0

Queste sono tre equazioni, ma una di esse è dipendente dalle altre due (non sappiamo a priori quale); eliminandola otteniamo il sistema di due equazioni lineari, che è una forma implicita di r. Esempio 33.37. Consideriamo i sottospazi affini dell’Esempio 33.31.  x = −1 + 3λ 1. Per trasformare la forma parametrica della retta y =1+λ r in una forma implicita, eliminiamo il parametro, ottenendo per esempio λ = y − 1 e quindi x = −1 + 3(y  − 1), ossia x− 3y + 4 = 0. 3 x − (−1) Possiamo anche usare la formula det = 0, ossia 1 y−1 −x + 3y − 4 = 0.   x=1+λ 2. Per trasformare la forma parametrica y = −4 + 3λ − 5λ′ del  z = 1 + λ′ piano π in una forma implicita, eliminiamo i parametri, ottenendo per esempio (λ, λ′ ) = (x − 1, z − 1) e quindi y = −4 + 3(x − 1) − 5(z − 1), ossia  −3x + y + 5z +2 = 0. Possiamo anche usare la 1 0 x−1 formula det 3 −5 y − (−4) = 0, ossia 3x − y − 5z − 2 = 0. 0 1 z−1   x = −6 + 7λ 3. Per trasformare la forma parametrica y = 3 − 3λ della ret z = −2 + λ ta r in una forma implicita, eliminiamo il parametro, ottenen x = −6 + 7(z + 2) do per esempio λ = z + 2 e quindi , ossia y = 3 − 3(z + 2)  x − 7z − 8 = 0 . Possiamo anche usare la formula y + 3z + 3 = 0    7 x − (−6)   det =0    y − 3   −3  3x + 7y − 3 = 0  7 x − (−6) −x + 7z + 8 = 0 ; , ossia =0 det 1 z − (−2)      −y − 3z − 3 = 0    −3 y−3   det =0 1 z − (−2)

le prime due equazioni non dipendono l’una dall’altra, quindi una  3x + 7y − 3 = 0 ◮ forma implicita è . −x + 7z + 8 = 0

c 2014 Gennaro Amendola

Versione 1.0

◮ La terza equazione dipende dalle altre due, infatti è ottenuta dalla prima aggiungendo la seconda moltiplicata per 3 e poi moltiplicando il risultato per − 71 .

Lezione 33. Sottospazi affini

33–14

Forme parametriche di rette e piani La forma parametrica è molto utile per trovare la retta per due punti e il piano per tre punti. Osservazione 33.38. Dati due punti distinti A e B in V 2E o V 3E , c’è un’unica retta r che li contiene. ◮ Una sua forma parametrica è facile da calcolare, infatti se scegliamo A come punto base e il vettore B − A come vettore direttore, otteniamo la seguente forma parametrica di r:

Retta per due punti Abbiamo visto nella Lezione 7 come trovare la forma implicita di una retta per due punti nel piano, ma questa tecnica è molto più veloce e funziona anche nello spazio.

P = A + λ(B − A).

In coordinate, in V 2E , otteniamo       x ax bx − ax = +λ , y ay by − ay

◮ Lezione 7.

o, esplicitamente,  x = ax + λ (bx − ax ) . y = ay + λ (by − ay )

In coordinate, in V 3E , otteniamo       x ax bx − ax  y  =  ay  + λ  by − ay  , z az bz − az o, esplicitamente,   x = ax + λ (bx − ax ) y = ay + λ (by − ay ) .  z = az + λ (bz − az )

 3 Esempio 33.39. 1. La retta che contiene i due punti A = e −1         0 x 3 0−3 B= ha la forma parametrica = +λ , 2 y −1 2 − (−1)        x 3 −3 x = 3 + λ(0 − 3) , ossia = +λ , o, esplicitamente, y −1 3 y = −1 + λ (2 − (−1))  x = 3 − 3λ . ossia y = −1 + 3λ     2 1 2. La retta che contiene i due punti A =  0  e B = −1 −2 −4       x 2 1−2 ha la forma parametrica y  =  0  + λ  −1 − 0 , ossia z −2 −4 − (−2)        x 2 −1  x = 2 + λ(1 − 2) y  =  0 +λ −1, o, esplicitamente, y = 0 + λ(−1 − 0) ,  z −2 −2 z = −2 + λ (−4 − (−2))   x=2−λ ossia y = −λ .  z = −2 − 2λ c 2014 Gennaro Amendola



Versione 1.0

Lezione 33. Sottospazi affini

33–15

Osservazione 33.40. Dati tre punti non allineati A, B e B ′ in V 3E , c’è un’unico piano π che li contiene. ◮ Una sua forma parametrica è facile da calcolare, infatti se scegliamo A come punto base e i vettori B−A e B ′ −A come base della giacitura, otteniamo la seguente forma parametrica di π:  P = A + λ(B − A) + λ′ B ′ − A .

In coordinate otteniamo        ′  bx − ax x ax bx − ax y  = ay  + λ by − ay  + λ′ b′y − ay  , z az bz − az b′z − az

Plane for three points Abbiamo visto nella Lezione 7 come trovare la forma implicita di un piano per tre punti nello spazio, ma questa tecnica è molto più veloce.

◮ Lecture 7.

o, esplicitamente,   x = ax + λ (bx − ax ) + λ′ (b′x − ax) y = ay + λ (by − ay ) + λ′ b′y − ay .  z = az + λ (bz − az ) + λ′ (b′z − az )

    1 2    Esempio 33.41. Il piano che contiene i tre punti A = 1 , B = 0 1 −1         3 x 1 2−1 e B ′ = −2 ha la forma parametrica y  = 1 + λ  0 − 1  + 4 z 1 −1 − 1           3−1 x 1 1 2 λ′ −2 − 1, ossia y  = 1 + λ −1 + λ′ −3, o, esplicita4−1 z 1 −2 3   ′ (3 − 1) x = 1 + λ(2 − 1) + λ x = 1 + λ + 2λ′   mente, y = 1 + λ(0 − 1) + λ′ (−2 − 1) , ossia y = 1 − λ − 3λ′ .   ′ z = 1 + λ(−1 − 1) + λ (4 − 1) z = 1 − 2λ + 3λ′ Osservazione 33.42. Una forma parametrica di una retta produce un modo per associare a un numero reale un punto della retta. Infatti, data la forma parametrica P = P0 + λv della retta r mostrata nella figura, possiamo associare a ogni numero reale λ il punto P = P0 + λv di r:

Parametrizzazione di una retta

R ∋ λ 7−→ P0 + λv ∈ r.

Questa funzione è bigettiva. Nella figura abbiamo mostrato i punti associati ad alcuni valori di λ. I sottoinsiemi della retta corrispondono ai sottoinsiemi di R, quindi possiamo considerare semirette e segmenti. Osservazione 33.43. Sia r una semiretta. Sia r la retta che contiene r, e sia P0 l’estremo della semiretta. Consideriamo una forma parametrica della retta r con punto base P0 e vettore direttore v con la stessa direzione e verso della semiretta, ossia P = P0 + λv. I punti della semiretta sono parametrizzati da P = P0 + λv

con λ ∈ {t ∈ R | t > 0}.

 3 Esempio 33.44. 1. La semiretta con estremo A = e diret−1       0 x 3 ta verso B = ha la forma parametrica = + 2 y −1 c 2014 Gennaro Amendola



Versione 1.0

Parametrizzazione di una semiretta

Abbiamo scelto come vettore direttore v = B − A.

Lezione 33. Sottospazi affini 

33–16

      x 3 −3 con λ > 0, i.e. = +λ with y −1 3  x = 3 + λ(0 − 3) λ > 0, o, esplicitamente, con λ > 0, y = −1 + λ (2 − (−1))  x = 3 − 3λ ossia con λ > 0. y = −1 + 3λ     2 1 2. La semiretta con estremo A =  0  e diretta verso B = −1 −2 −4       x 2 1−2 ha la forma parametrica y  =  0  + λ  −1 − 0  con z −2 −4 − (−2)       x 2 −1 λ > 0, i.e. y  =  0  + λ −1 con λ > 0, o, esplicitamente, z −2 −2    x = 2 + λ(1 − 2)  x=2−λ y = 0 + λ(−1 − 0) con λ > 0, ossia y = −λ con   z = −2 + λ (−4 − (−2)) z = −2 − 2λ λ > 0. 0−3 λ 2 − (−1)



Osservazione 33.45. Sia AB un segmento. Sia r la retta che contiene AB. Consideriamo la forma parametrica della retta r con punto base A e vettore direttore B − A, ossia P = A + λ(B − A). I punti del segmento sono parametrizzati da

Abbiamo scelto come vettore direttore v = B − A.

Parametrizzazione di un segmento

P = A + λ(B − A) con λ ∈ {t ∈ R | 0 6 t 6 1}.

In particolare, il punto medio del segmento AB, ossia il punto equidistante dai due estremi del segmento, è il punto M = A + 21 (B − A). Esso può anche essere riscritto come M = 21 A + 21 B. ◮     3 0 Esempio 33.46. 1. Il segmento AB con A = eB= ha −1 2       x 3 0−3 la forma parametrica = +λ con 0 6 λ 6 1, y −1 2 − (−1)       x 3 −3 ossia = +λ con 0 6 λ 6 1, o, esplicitamente, y −1 3   x = 3 + λ(0 − 3) x = 3 − 3λ con 0 6 λ 6 1, ossia y = −1 + λ (2 − (−1)) y = −1 + 3λ con 0 6 λ 6 1.        3  3 0 3 1 Il punto medio è M = +2 − = 21 . Esso −1 2 −1   2   3 0 può anche essere calcolato con la formula M = 12 + 12 = −1 2 3 2 . 1 2

   2 1    0 e B = −1 ha la forma pa2. Il segmento AB con A = −2 −4

c 2014 Gennaro Amendola



Versione 1.0

Punto medio ◮ Non siamo abituati a fare combinazioni lineari di punti, ma, visto che essi sono elementi di uno spazio vettoriale, la combinazione lineare può essere fatta.

Lezione 33. Sottospazi affini

33–17

      1−2 2 x rametrica y  =  0  + λ  −1 − 0  con 0 6 λ 6 1, os−4 − (−2) −2 z       x 2 −1 sia y  =  0  + λ −1 con 0 6 λ 6 1, o, esplicitamente, z −2 −2   x = 2 + λ(1 − 2)   x= 2−λ y = 0 + λ(−1 − 0) con 0 6 λ 6 1, ossia y = −λ   z = −2 + λ (−4 − (−2)) z = −2 − 2λ con 0 6 λ 6 1.        3  2 2 1 2 Il punto medio è M =  0  + 12 −1 −  0  = − 21 . −2 −4 −2 −3   2 Esso può anche essere calcolato con la formula M = 12  0  + −2    3  1 2 1  = − 1 . −1 2 2 −3 −4

33.2

Intersezione di sottospazi affini

Osservazione 33.47. Contrariamente a quanto succede per i sottospazi vettoriali (che contengono sempre il vettore nullo, e quindi si intersecano sempre), due sottospazi affini possono anche non intersecarsi. Ad esempio, in qualsiasi spazio vettoriale (eccetto {0}) abbiamo il caso banale in cui i due sottospazi affini S1 = {P1 } e S2 = {P2 }, con P1 6= P2 , non si intersecano. Esempio 33.48. Due rette parallel (come y = 0 e y = 1 nel piano) sono sottospazi affini che non si intersecano. ◮ Vale un risultato analogo a quello sull’intersezione di sottospazi vet◮, ma dobbiamo considerare il caso in cui i due sottospazi affini toriali ◮ non si intersecano.

◮ Lezione 7. ◮ ◮ Proposizione 12.8.

Proposizione 33.49. Siano S1 e S2 due sottospazi affini di uno spazio vettoriale V , la cui intersezione S1 ∩ S2 è non vuota. Allora, l’intersezione S1 ∩ S2 è un sottospazio affine di V . Dimostrazione. Sia P ∈ S1 ∩ S2 . ◮ Abbiamo S1 = P + W 1 e S2 = ◮ Allora, abbiamo S1 ∩ S2 = P + (W 1 ∩ W 2 ), e quindi S1 ∩ S2 P + W 2. ◮ è un sottospazio affine di V . Osservazione 33.50. Analogamente a quanto succede per i sottospazi vettoriali ◮ lo stesso risultato vale per un numero qualsiasi di sottospazi affini, anche infiniti, una volta che l’intersezione è non vuota.

c 2014 Gennaro Amendola

Versione 1.0

◮ Possiamo usare lo stesso punto base P per entrambi i sottospazi affini. ◮ ◮ Proposizione 33.6.

◮ Osservazione 12.9.

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

#corso# INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA #insegnamento# 33/S1 #lezione# Sottospazi affini #titolo# 1 #attività#

Sessione di Studio 33.1

Sottospazi affini

Lezione 33. Sottospazi affini

33–18

Sessione di Studio 33.1 Esercizio  33.1.Trova ilfascio  di piani nello spazio che contengono i 1 2 punti P =  3  e Q = 1. −1 4   1 Trova il piano nel fascio che contiene il punto R =  2 . −3

Soluzione. La retta r contenuta in tutti i  piani del fascio è la retta  x = 1 + t(2 − 1) per P e Q. Una forma parametrica di r è y = 3 + t(1 − 3) ,  z = −1 + t (4 − (−1))   x=1+t ossia y = 3 − 2t . Una forma implicita di r è ottenuta eliminando il  z = −1 + 5t parametro  t: per esempio, abbiamo t = x−1 e quindi una forma implicita 2x + y − 5 = 0 di r è . Due piani del fascio hanno rispettivamente la 5x − z − 6 = 0 forma implicita 2x + y − 5 = 0 e 5x − z − 6 = 0, quindi la forma implicita di un piano generico del fascio di piani è λ(2x+y −5)+µ(5x−z −6) = 0, con (λ, µ) ∈ R2 \ {(0, 0)}. Sostituendo le coordinate di R nell’equazione del fascio, otteniamo λ(2 · 1 + 2 − 5) + µ (5 · 1 − (−3) − 6) = 0, ossia λ = 2µ, le cui soluzioni ◮, sono le coppie (2µ, µ), con µ 6= 0. ◮ Scegliendo arbitrariamente µ = 1 ◮ otteniamo la soluzione (2, 1), che produce il piano 2(2x + y − 5) + (5x − z − 6) = 0.

c 2014 Gennaro Amendola

Versione 1.0

◮ Esse sono proporzionali, quindi rappresentano la stessa retta. ◮ ◮ È fondamentale scegliere un numero non nullo.

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

#corso# INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA #insegnamento# 33/S2 #lezione# Sottospazi affini #titolo# 1 #attività#

Sessione di Studio 33.2

Sottospazi affini

Lezione 33. Sottospazi affini

33–19

Sessione di Studio 33.2 Esercizio 33.2. I seguenti sottospazi affini sono anche sottospazi vettoriali dei rispettivi spazi vettoriali?  1. X ∈ R4 x1 + 2x2 − x3 = 0, x2 − x3 + x4 − 1 = 0 di R4 .     2   2. λ −1 ∈ R3 λ ∈ R di R3 .   3

Esercizio 33.3. Trova la dimensione dei seguenti sottospazi affini.         1 2 0 −4 −1  1   3   1  4        1.   0  + Span −3 , −1 ,  5  ⊂ R . 0 2 2 4  3 2. X ∈ R x1 − x2 + x3 + 1 = 0, 2x1 + x2 − 3x3 − 2 = 0, x1 − 2x2 + 6x3 + 5 = 0 . 3. {p(t) ∈ R63 [t] | p(0) = 2, p(1) = 1, p(−1) = 0}.

Esercizio 33.4. Trova una forma implicita dei seguenti sottospazi affini dei rispettivi spazi vettoriali, definiti con forme parametriche.  x = 3 − 2λ in V 2E . 1. y = −1 + 3λ   x = 5 − 4t 2. y = −3 + 3t in V 3E .  z =3−t   x = 2 − t + 2s 3. y = −1 + t − 3s in V 3E .  z =4−t+s  x1 = 1 − 2t + 3s    x2 = t − s 4. in R4 . x = 1 − 3t + 2s  3   x4 = −4t + 2s  z = i − (1 + i)λ 5. in C2 . w = 2 − 3i + λ Esercizio 33.5. Trova una forma parametrica dei seguenti sottospazi affini dei rispettivi spazi vettoriali, definiti con forme implicite. 1. 3x − 4y − 7 = 0 in V 2E .  x + y − 2z + 1 = 0 2. in V 3E . 2x + 2y − 3z + 3 = 0 3. 3x − 2y − 4z − 2 = 0 in V 3E .   x1 + x2 − x4 − 4 = 0 4. x + 2x2 − 3x4 − 7 = 0 in R4 .  1 2x1 + 2x2 − x3 − x4 − 6 = 0 5. iz − (2 + i)w − 3 = 0 in C2 .

Esercizio 33.6. Trova la retta in V   −4 . −5 c 2014 Gennaro Amendola

2 E

che contiene i due punti



 2 e −3

Versione 1.0

Lezione 33. Sottospazi affini

33–20

Esercizio 33.7.  Trova implicita della retta in V 2E che con una  forma  1 −4 tiene i due punti e . 1 −2   4 3  Esercizio 33.8. Trova la retta in V E che contiene il punto −3 e 5 l’origine O. Esercizio 33.9.  Trova forma implicita della retta in V 3E che con   una 2 5    tiene i due punti 0 e 1. 0 2   0 Esercizio 33.10. Trova il piano in V 3E che contiene i tre punti −2, 3     1 −2 3 e −3. 4 2

3 Esercizio 33.11.   implicita del piano in V E che con forma   una  Trova 2 1 1 tiene i tre punti 1, 0 e 1. 2 0 5

Esercizio 33.12. il punto medio del segmento con estremi A =   Trova   −1 3 −2 e B =  6 . −3 0

c 2014 Gennaro Amendola

Versione 1.0

Lezione 33. Sottospazi affini

33–21

Risultato dell’Esercizio 33.2. 1. No. 2. Sì. Risultato dell’Esercizio 33.3.

Osservazione 33.10.

1. 2.

2. 1. 3. 1. Risultato dell’Esercizio 33.4. 1. 3x + 2y − 7 = 0.  x − 4z + 7 = 0 2. . y + 3z − 6 = 0 3. 2x + y − z + 1 = 0.  x1 + 5x2 + x3 − 2 = 0 4. . 2x1 + 8x2 + x4 − 2 = 0

Questo esercizio non ha un’unica soluzione, quindi il lettore può trovare una soluzione diversa.

Risultato dell’Esercizio 33.5.  x = 73 + 43 t . 1. y=t   x = −3 − λ 2. y=λ .  z = −1   x = λ1 . 3. y = λ2  z = − 12 + 43 λ1 − 12 λ2  x1 = 1 − t    x2 = 3 + 2t 4. . x3 = 2 + t    x4 = t  z=λ  . 5. w = − 65 + 35 i + 51 + 52 i λ  x = 2 − 6t . Risultato dell’Esercizio 33.6. y = −3 − 2t

Questo esercizio non ha un’unica soluzione, quindi il lettore può trovare una soluzione diversa.

5. z + (1 + i)w − 5 = 0.

Questo esercizio non ha un’unica soluzione, quindi il lettore può trovare una soluzione diversa.

Risultato dell’Esercizio 33.7. 3x − 5y + 2 = 0.   x = 4t Risultato dell’Esercizio 33.8. ◮ y = −3t .  z = 5t  x − 3y − 2 = 0 . Risultato dell’Esercizio 33.9. 2y − z = 0   x = t − 2s Risultato dell’Esercizio 33.10. y = −2 + 5t − s .  z =3+t−s

Questo esercizio non ha un’unica soluzione, quindi il lettore può trovare una soluzione diversa. Questo esercizio non ha un’unica soluzione, quindi il lettore può trovare una soluzione diversa.   0 ◮ O = 0. 0 Questo esercizio non ha un’unica soluzione, quindi il lettore può trovare una soluzione diversa. Questo esercizio non ha un’unica soluzione, quindi il lettore può trovare una soluzione diversa.

Risultato dell’Esercizio 33.11. 3x − 5y + z − 3 = 0.   1 Risultato dell’Esercizio 33.12.  2 . − 23 c 2014 Gennaro Amendola

Questo esercizio non ha un’unica soluzione, quindi il lettore può trovare una soluzione diversa.

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

#corso# INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA #insegnamento# 33/S3 #lezione# Sottospazi affini #titolo# 1 #attività#

Sessione di Studio 33.3

Sottospazi affini

Lezione 33. Sottospazi affini

33–22

Sessione di Studio 33.3 Letture supplementari possono essere le seguenti: • http://it.wikipedia.org/wiki/Retta

• http://it.wikipedia.org/wiki/Piano_(geometria) • http://it.wikipedia.org/wiki/Segmento

• http://it.wikipedia.org/wiki/Punto_medio

• http://it.wikipedia.org/wiki/Spazio_affine

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

#corso# INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA #insegnamento# 34 #lezione# Mutua posizione di sottospazi affini #titolo# 1 #attività#

Lezione 34 Mutua posizione di sottospazi affini

Lezione 34

Mutua posizione di sottospazi affini In questa lezione studieremo la mutua posizione dei sottospazi affini. La situazione è abbastanza simile a quella dei sottospazi vettoriali, ma c’è un’importante differenza, perché, contrariamente a quanto succede con i sottospazi vettoriali, i sottospazi affini possono non intersecarsi. Specializzeremo i risultati al caso dei vettori geometrici, ossia al piano e allo spazio.

34.1

Mutua posizione di sottospazi affini

In questa fissiamo uno spazio vettoriale V , e consideriamo solo i sottospazi affini di V . Notazione 34.1. Due sottospazi affini S1 e S2 sono detti coincidenti se S1 = S2 .

1. La retta con forma  implicita x − 3y + 4 = 0 x = −1 + 3λ in V 2E sono e la retta con forma parametrica y =1+λ coincidenti. ◮

Esempio 34.2.

2. Il piano con = 0 e il piano con forma para forma implicita x−3y−z ′ x = −1 + 3λ − λ  metrica y =1+λ in V 3E non sono coincidenti, infatti  ′ z = 5λ il primo contiene l’origine O, mentre il secondo no.  x1 = 1 − 2t + 3s    x2 = t − s 3. Il sottospazio affine con forma parametrica e x = 1 − 3t + 2s    3 x4 = −4t + 2s  x1 + 5x2 + x3 − 2 = 0 il sottospazio affine con forma implicita 2x1 + 8x2 + x4 − 2 = 0 in R4 sono coincidenti. ◮ Definizione 34.3. Due sottospazi affini S1 = P1 + W 1 e S2 = P2 + W 2 sono detti paralleli se le loro giaciture sono una contenuta nell’altra o c 2014 Gennaro Amendola

Versione 1.0

Sottospazi affini coincidenti Se S1 e S2 non sono coincidenti, sono diversi. Sembra inutile dare un nome alla situazione in cui invece di due sottospazi affini ne abbiamo uno solo, ma non è così. Infatti ogni sottospazio affine può avere più forme, parametriche e/o implicite, quindi se abbiamo due forme diverse, ciascuna di un sottospazio affine, può succedere che le due forme rappresentino in realtà lo stesso sottospazio affine: in tal caso diremo che i due sottospazi affini sono coincidenti. ◮ Esempio 33.31-1.

◮ Esercizio 33.4 e Risposta 33.4.

Sottospazi affini paralleli Nella geometria euclidea le rette sono dette parallele se sono complanari e non si intersecano, e quindi non sono coincidenti. Qui non stiamo chiedendo questo, quindi un sottospazio affine è parallelo a sé stesso. Questa è solo una definizione (che ha senso per un motivo di cui non ci occuperemo), ma la differenza con quella euclidea è minuscola.

Lezione 34. Mutua posizione di sottospazi affini

34–2

viceversa, ossia W1 ⊂ W2 o W 2 ⊂ W 1. Osservazione 34.4. Per controllare se due sottospazi affini della forma Per controllare se due sottospazi affini sono   paralleli è sufficiente lavorare con generatoS1 = P1 +Span w11 , w 21 , . . . , wn1 e S2 = P2 +Span w 12 , w22 , . . . , wm ri delle giaciture; ancora meglio se formano 2 una base. sono paralleli, è sufficiente controllare se  wi1 ∈ Span w12 , w22 , . . . , w m ∀i = 1, 2, . . . , n 2 o  wi2 ∈ Span w11 , w21 , . . . , w m ∀i = 1, 2, . . . , m. 1 Esempio 1. Lerette con forma parametrica rispettivamente  34.5. x = −1 − λ x = −1 + 3λ , in V 2E non sono parallele. Ine y = 1 + 2λ y =1+λ     3 −1 fatti, le loro giaciture sono rispettivamente Span e Span , 1 2         −1 3 3 −1 e non vale né ∈ Span né ∈ Span , 2 1 1 2     3 −1 perché e non sono multipli l’uno dell’altro. 1 2   x = −2 + λ 2. La retta e il piano con forma parametrica rispettivamente y =1−λ  z = 3 − 2λ   x = −1 + 2λ − λ′ e y = 2 + 3λ − 4λ′ , in V 3E sono paralleli. Infatti, le loro giaci z = 1 − λ − λ′       1 2 −1 ture sono rispettivamente Span −1 e Span  3  , −4, −2 −1 −1       1 2 −1 ◮ Abbiamo visto come controllare se un vete abbiamo −1 ∈ Span  3  , −4. ◮ tore appartiene a un sottospazio vettoriale −2 −1 −1 generato da alcuni vettori nella Lezione 12.  x = 4 + λ − λ′ − λ′′  1   x2 = −1 + 4λ − 3λ′ − λ′′ 3. I sottospazi affini con forma parametrica rispettivamente x = 2 − λ − λ′ + λ′′    3 x4 = 3 + 3λ − 2λ′ + 2λ′′  x1 = λ    x2 = 1 + 2λ , in R4 sono paralleli. Infatti, le loro giaciture e x = −3 − 3λ    3 x4 = 2 − λ         1 −1 −1 1  4  −3 −1  2          sono rispettivamente Span  −1 , −1 ,  1  e Span −3, 3 −2 2 −1 ◮ ◮ Abbiamo visto come controllare se un vete abbiamo         tore appartiene a un sottospazio vettoriale 1 1 −1 −1 generato da alcuni vettori nella Lezione 12. 2         ∈ Span  4  , −3 , −1 . −3 −1 −1  1  −1 3 −2 2 c 2014 Gennaro Amendola

Versione 1.0

Lezione 34. Mutua posizione di sottospazi affini

34–3

Definizione 34.6. Due sottospazi affini non paralleli S1 e S2 sono detti incidenti se hanno intersezione non vuota, ossia

Sottospazi affini incidenti

S1 ∩ S2 6= ∅.

Esempio 1. Le  34.7.  rette con forma parametrica rispettivamente x = −1 + λ x = 3 + 2λ e , in V 2E non sono incidenti, pery =2−λ y = −1 − 2λ     1 2 ché sono paralleli, infatti i vettori direttori e sono −1 −2 multipli l’uno dell’altro.  x1 = 1 + 2λ − 3λ′    x2 = −1 + λ − 3λ′ 2. I sottospazi affini con forma parametrica rispettivamente x = λ + 2λ′    3 x 4 = 2 − λ + λ′  x1 = 3 + 4λ    x2 = 2λ − λ′ , in R4 sono incidenti. Infatti, abbiamo i e ′ x = 1 + 2λ + λ  3   x4 = 1 − 2λ + 2λ′ due fatti seguenti.

• Essi non sonoparalleli, perché le loro giaciture  rispettiva   sono    −3 0 2 4  1  −3  2  −1         mente Span   1  ,  2  e Span  2  ,  1 , e −1 −2 1 2 ◮ Abbiamo visto come controllare se un vetabbiamo ◮            tore appartiene a un sottospazio vettoriale 0 2 −3 −3 4 0 generato da alcuni vettori nella Lezione 12. −1  1  −3 −3  2  −1   6∈ Span   ,   e   6∈ Span   ,   . 1  1   2  2  2   1  2 −1 1 1 −2 2   3 0  • La loro intersezione è non vuota, perché il punto  1 appar1 tiene a entrambi i sottospazi affini.  x1 − x2 + 3x3 = 1 3. I sottospazi affini con forma implicita rispettivamente x2 − 2x3 + x4 = 0  x1 − 2x2 + x4 = 2 , in R4 non sono incidenti. Infatti, e 2x1 − 2x2 + x3 + 2x4 = −3  x1 − x2 + 3x3 = 1    x2 − 2x3 + x4 = 0 la loro intersezione è vuota, perché il sistema x − 2x2 + x4 = 2    1 2x1 − 2x2 + x3 + 2x4 = −3 non ha soluzione.

Definizione 34.8. Due sottospazi affini S1 = P1 + W 1 and S2 = P2 + W 2 sono detti sghembi se hanno intersezione vuota e le giaciture si intersecano solo in 0, ossia S1 ∩ S2 = ∅ c 2014 Gennaro Amendola

e

W 1 ∩ W 2 = {0}. Versione 1.0

Sottospazi affini sghembi

Lezione 34. Mutua posizione di sottospazi affini

34–4

Osservazione 34.9. Due sottospazi affini coincidenti non sono sghembi, perché si intersecano. Esempio 1.  Le rette con forma parametrica rispettivamente  34.10.  x = 1 − 2λ  x=3+λ y=λ e y =2−λ , in V 3E sono sghembi. Infatti,   z =3−λ z = −1 + 2λ abbiamo i due fatti seguenti. •  Le giaciture intersecano solo in 0, perché i vettori direttori,   si  1 −2  1  e −1, non sono multipli l’uno dell’altro. 2 −1  x = 1 − 2λ     y =λ    z =3−λ • La loro intersezione è vuota, perché il sistema x = 3 + λ′      y = 2 − λ′   z = −1 + 2λ′ non ha soluzione. ◮

◮ Dobbiamo usare parametri diversi quando cerchiamo le intersezioni con le forme parametriche.

2. I sottospazi affini con forma parametrica rispettivamente x1 = −3 + 4λ x1 = 2 + 2λ − 3λ′       x2 = λ − 3λ′ x2 = 1 + 2λ − λ′ e , in R4 non sono ′ ′ x = 2 − λ + 2λ x = −2λ + λ   3 3     x 4 = λ + λ′ x4 = −1 + 2λ + 2λ′ sghembi. Infatti,  le giaciture si intersecano non si intersecano so 4 2  lo in 0: il vettore  −2 appartiene a entrambe le giaciture, which 2         2 −3 4 0  1  −3  2  −1         are rispettivamente Span  −1 ,  2  e Span −2 ,  1 . 1 1 2 2

Osservazione 34.11. Due sottospazi affini sghembi non sono né paralleli né incidenti, per definizione. L’implicazione inversa non è vera (se dim(V ) > 4) come può essere visto nel seguente esempio. Vedremo sotto che se dim(V ) = 3 l’implicazione inversa è vera, e che se dim(V ) 6 2 due sottospazi affini non possono essere mai sghembi. Esempio 34.12. I due sottospazi affini di R4 dell’Esempio 34.10-2 non sono sghembi. Tuttavia, essi non sono né paralleli né incidenti. • Essi non sono paralleli perché le loro giaciture sono rispettivamente         2 −3 4 0  1  −3  2  −1         Span  −1 ,  2  e Span −2 ,  1  , 1 1 2 2

c 2014 Gennaro Amendola

Versione 1.0

Le due giaciture 2-dimensionali si intersecano in un sottospazio vettoriale 1-dimensionale.

Lezione 34. Mutua posizione di sottospazi affini

34–5



           0 2 −3 −3 4 0 −1  1  −3 −3  2  −1            e abbiamo   1  6∈ Span −1 ,  2  e  2  6∈ Span −2 ,  1 . 2 1 1 1 2 2  x1 = 2 + 2λ − 3λ′    x = λ − 3λ′  2     x  3 = 2 − λ + 2λ′   x 4 = λ + λ′ • Essi non sono incidenti perché il sistema x1 = −3 + 4µ    ′   x 2 = 1 + 2µ − µ     x = −2µ + µ′   3 x4 = −1 + 2µ + 2µ′ ◮ Dobbiamo usare non ha soluzione. ◮

parametri diversi quando cerchiamo le intersezioni con le forme parametriche.

Mutua posizione di rette e piani In questa sottosezione considereremo solo il caso in cui lo spazio vettoriale V è il piano euclideo V 2E o lo spazio euclideo V 3E . Tuttavia, ogni risultato può essere generalizzato a un qualsiasi spazio vettoriale di dimensione rispettivamente 2 e 3. Abbiamo già studiato la mutua posizione di rette e piani nel piano e nello spazio nella Lezione 7, quindi ci riferiamo alla Lezione 7 per le definizioni e le proprietà, senza dirlo ulteriormente esplicitamente. Osservazione 34.13. Due rette distinte (ossia non coincidenti) nel piano possono essere: • parallele, se non si intersecano (o, equivalentemente, se i loro vettori direttori sono multipli l’uno dell’altro); • incidenti, se si intersecano in un punto (o, equivalentemente, se i loro vettori direttori sono multipli l’uno dell’altro). Queste possibilità coprono tutti i casi e sono mutualmente esclusive. Se ax + by + c = 0 e a′ x + b′ y + c′ = 0 sono forme implicite delle due rette, rispettivamente, possiamo considerare il sistema di equazioni lineari  ax + by = −c , a′ x + b′ y = −c′   a b la cui matrice incompleta è A = e la cui matrice completa a′ b′    a b −c è A B = . Una semplice applicazione del Teorema di a′ b′ −c′ Rouché-Capelli ◮ e dell’Osservazione 28.4 produce la seguente tabella per distinguere i casi di sopra.  rank(A) rank A B Mutua posizione 1 1 2

c 2014 Gennaro Amendola

1 2 2

coincidenti parallele non coincidenti incidenti

Versione 1.0

Mutua posizione di due rette nel piano: rette coincidenti, parallele, incidenti

◮ Teorema 28.1.

Lezione 34. Mutua posizione di sottospazi affini

34–6

1. Le due rette distinte in V2E dell’Esempio    34.71 2 1 sono parallele, perché i vettori direttori e sono −1 −2 multipli l’uno dell’altro. ◮ Una forma implicita delle rette èrispettivamente x+y   −1 = 0e x+ 1 1 1 1 1 y − 2 = 0, quindi abbiamo rank = 1 e rank =2 1 1 1 1 2 confermando il fatto che le due rette sono parallele non coincidenti.

Esempio 34.14.

2. Le due rette distinte in V 2E dell’Esempio 34.5-1 sono incidenti,   −1 ◮ ◮ ◮ perché si intersecano soltanto in .◮◮ 1 Una forma implicita delle rette è rispettivamente  +4= 0 e  x − 3y 1 −3 = 2 e 2x + y + 1 = 0, quindi abbiamo rank 2 1   1 −3 −4 = 2 confermando il fatto che le due rette sono rank 2 1 −1 incidenti. Osservazione 34.15. Due piani distinti (ossia non coincidenti) nello spazio possono essere: • paralleli, se non si intersecano;

• incidenti, se si intersecano in una retta. Queste possibilità coprono tutti i casi e sono mutualmente esclusive. Se ax+by+cz+d = 0 e a′ x+b′ y+c′ z+d′ = 0 sono forme implicite dei due piani, rispettivamente, possiamo considerare il sistema di equazioni lineari  ax + by + cz = −d , a′ x + b′ y + c′ z = −d′   a b c la cui matrice incompleta è A = e la cui matrice completa a′ b′ c′    a b c −d . Una semplice applicazione del Teorema è A B = a′ b′ c′ −d′ di Rouché-Capelli ◮ e dell’Osservazione 28.4 produce la seguente tabella per distinguere i casi di sopra.  Mutua posizione rank(A) rank A B 1 1 2

1 2 2

 x = −1 + 3λ    y = 1+λ ◮ Il sistema produce solo ◮ x = −1 − λ    y = 1 + 2λ   −1 il punto di intersezione . 1 ◮ ◮ Le rette non sonoparallele, infatti i vettori ◮    3 −1 direttori, e , non sono multipli 1 2 l’uno dell’altro. Quindi, esse sono anche distinte.

Mutua posizione di due piani nello spazio: piani coincidenti, paralleli, incidenti

◮ Teorema 28.1.

coincidenti paralleli non coincidenti incidenti

Esempio 34.16. 1. I due piani con forma implicita rispettivamente x − 3y + z − 1 = 0 e 2x − 6y + 2z = 0 in V 3E sono paralleli, perché ◮ non si intersecano.     1 −3 1 1 −3 1 1 Abbiamo rank = 1 e rank = 2 con2 −6 2 2 −6 2 0 fermando il fatto che i due piani sono paralleli non coincidenti. 2. I due piani con forma implicita rispettivamente x − y + 2z − 3 = 0 e 2x − 5y + z + 2 = 0 in V 3E sono incidenti, perché si intersecano in una retta. ◮ c 2014 Gennaro Amendola

◮ La lorointersezione è vuota, infatti il si x = −1 + λ   y = 2−λ stema non ha soluzione. x = 3 + 2µ    y = −1 − 2µ Quindi, esse sono anche non incidenti e quindi sono distinte.

Versione 1.0

◮ Il sistema

soluzione. distinti.

◮ Il sistema

soluzioni. distinti.





x − 3y + z − 1 = 0 non ha 2x − 6y + 2z = 0 Quindi, i piani sono anche

x − y + 2z − 3 = 0 ha ∞1 2x − 5y + z + 2 = 0 Quindi, i piani sono anche

Lezione 34. Mutua posizione di sottospazi affini

34–7

   1 −1 2 1 −1 2 3 = 2 Abbiamo rank = 2 e rank 2 −5 1 2 −5 1 −2 confermando il fatto che i due piani sono incidenti. 

Osservazione 34.17. Due rette distinte (ossia non coincidenti) nello spazio possono essere: • parallele, se i loro vettori direttori sono multipli l’uno dell’altro;

Mutua posizione di due rette nello spazio: rette coincidenti, parallele, incidenti, sghembe

• incidenti, se si intersecano in un punto;

• sghembe, se non si intersecano e i loro vettori direttori non sono multipli l’uno dell’altro; Questepossibilità coprono tutti i casi e sono mutualmente esclusive. a1 x + b1 y + c1 z + d1 = 0 a′1 x + b′1 y + c′1 z + d′1 = 0 sono Se e a2 x + b2 y + c2 z + d2 = 0 a′2 x + b′2 y + c′2 z + d′2 = 0 forme implicite delle due rette, rispettivamente, possiamo considerare il sistema di equazioni lineari  a1 x + b1 y + c1 z = −d1    a2 x + b2 y + c2 z = −d2 , a′ x + b′1 y + c′1 z = −d′1    ′1 a2 x + b′2 y + c′2 z = −d′2   a1 b1 c1 a2 b2 c2   la cui matrice incompleta è A =  a′1 b′1 c′1  e la cui matrice completa a′ b′ c′   2 2 2 a1 b1 c1 −d1 a2 b2 c2 −d2    è A B = a′1 b′1 c′1 −d′1 . Una semplice applicazione del Teoa′2 b′2 c′2 −d′2 rema di Rouché-Capelli ◮ e dell’Osservazione 28.4 produce la seguente tabella per distinguere i casi di sopra. ◮  Mutua posizione rank(A) rank A B 2 2 3 3

2 3 3 4

coincidenti parallele non coincidenti incidenti sghembe

Esempio 34.18. 1. Le due rette   con forma parametrica rispettivax = 2 + λ   x = 3λ mente y = −1 − 2λ e y = 1 − 6λ in V 3E sono parallele,   z =3−λ z = 2 − 3λ     1 3 perché i vettori direttori −2 e −6 sono multipli l’uno del−1 −3 l’altro. ◮ Una forma implicita delle rette è rispettivamente   x+z−5=0 2x + y − 1 = 0 e , y − 2z + 7 = 0 x+z−2=0 c 2014 Gennaro Amendola

Versione 1.0

◮ Teorema 28.1. ◮ Per distinguere il secondo dal quarto caso (“parallele non coincidenti” and “sghembe”) bisognerebbe notare che nel primo le due rette sono contenuta in un piano, mentre nel secondo no. Tuttavia, eviteremo di entrare nel dettaglio.

◮ La loro intersezione è vuota, infatti il si x= 2+λ    y = −1 − 2λ    z = 3−λ stema non ha soluzione. x = 3µ     y = 1 − 6µ   z = 2 − 3µ Quindi, esse sono anche non incidenti e quindi sono distinte.

Lezione 34. Mutua posizione di sottospazi affini

quindi abbiamo   1 0 1 0 1 −2  rank  2 1 0  = 2 e 1 0 1

34–8

 0 1 5 1 −2 −7 =3 1 0 1 0 1 2



1 0 rank  2 1

confermando il fatto che le due rette sono parallele non coincidenti.

2. Le due rette con forma implicita rispettivamente   x − 4y − z + 3 = 0 x+y+z−2 = 0 , e 2x + 4y + 3z − 5 = 0 2x − y + z = 0   4 ◮ ◮ Quindi sono anche distinte. in V 3E sono incidenti, perché la loro intersezione è il punto  3 . ◮ ◮ ◮ −5 ◮ Il lettore può controllare che le due rette non sono parallele trovandone forme Abbiamo parametriche e controllando che i vettori     direttori non sono multipli l’uno dell’altro. 1 1 1 1 1 1 2 2 −1 1  2 −1 1  0    rank  1 −4 −1 = 3 e rank 1 −4 −1 −3 = 3 2 4 3 2 4 3 5 confermando il fatto che le due rette sono incidenti.

3. Le due rette distinte in V 3E dell’Esempio 34.10-1 sono sghembe. ◮ Una forma implicita delle rette è rispettivamente   x + 2y − 1 = 0 x+y−5=0 and , y+z−3 =0 2y + z − 3 = 0 quindi abbiamo  1 2 0 1 rank  1 1 0 2

 0 1 =3 e 0 1



1 0 rank  1 0

2 1 1 2

0 1 0 1

◮ Sono anche ovviamente distinte.

 1 3 =4 5 3

confermando il fatto che le due rette sono sghembe.

Osservazione 34.19. Una retta rispetto a un piano nello spazio può essere: • contenuta, se la retta è contenuta nel piano; • parallela ma non contenuta, se non si intersecano;

• incidente, se la retta interseca il piano in un punto. Questepossibilità coprono tutti i casi e sono mutualmente esclusive. a1 x + b1 y + c1 z + d1 = 0 Se e a′ x + b′ y + c′ z + d′ = 0 sono forme a2 x + b2 y + c2 z + d2 = 0 implicite della retta e del piano, rispettivamente, possiamo considerare il sistema di equazioni lineari   a1 x + b1 y + c1 z = −d1 a x + b2 y + c2 z = −d2 ,  ′2 a x + b′ y + c′ z = −d′ c 2014 Gennaro Amendola

Versione 1.0

Mutua posizione di una retta rispetto a un piano nello spazio: contenuta, incidente, parallela

Lezione 34. Mutua posizione di sottospazi affini

34–9



 a1 b1 c1 la cui matrice incompleta è A = a2 b2 c2  e la cui matrice completa a′ b′ c′   a1 b1 c1 −d1  è A B = a2 b2 c2 −d2 . Una semplice applicazione del Teoa′ b′ c′ −d′ rema di Rouché-Capelli ◮ e dell’Osservazione 28.4 produce la seguente tabella per distinguere i casi di sopra.  rank(A) rank A B Mutua posizione 2 2 3

2 3 3

◮ Teorema 28.1.

contenuta parallela non contenuta incidente

1. Consideriamo la retta e il piano con forma im x − y + 2z = 0 plicita rispettivamente e 3x−4y+2z+2 = 0 in 2x − 3y + 2 = 0   x − y + 2z = 0 V 3E . La retta è contenuta nel piano, infatti il sistema 2x − 3y + 2 = 0  3x − 4y + 2z + 2 = 0 ha ∞1 soluzioni.     1 −1 2 1 −1 2 0 Abbiamo rank 2 −3 0 = 2 e rank 2 −3 0 −2 = 2 3 −4 2 3 −4 2 −2 confermando il fatto che la retta è contenuta nel piano.

Esempio 34.20.

2. Consideriamo l’Esempio 34.5-2. La retta è parallela al piano,  x = −2 +λ     y = 1 − λ    z = 3 − 2λ non ha soluzione. infatti il sistema x = −1 + 2µ − µ′      y = 2 + 3µ − 4µ′   z = 1 − µ − µ′ Una forma implicita della retta e del piano è rispettivamente  x+y+1 = 0 e 7x − 3y + 5z + 8 = 0, 2y − z + 1 = 0 quindi abbiamo   1 1 0 rank 0 2 −1 = 2 e 7 −3 5

  1 1 0 −1 rank 0 2 −1 −1 = 3 7 −3 5 −8

confermando il fatto che la retta è parallela al piano ma non contenuta.

3. Consideriamo la retta e il piano con forma implicita rispettivamen x+z−3=0 e 2y − z + 1 = 0 in V 3E . La retta è incidente te 2x − y + 3z = 0   x+z−3=0 al piano, infatti il sistema 2x − y + 3z = 0 ha 1 soluzione.  2y − z + 1 = 0 c 2014 Gennaro Amendola

Versione 1.0

Lezione 34. Mutua posizione di sottospazi affini

34–10

    1 0 1 1 0 1 3 Abbiamo rank 2 −1 3  = 3 e rank 2 −1 3 0 =3 0 2 −1 0 2 −1 −1 confermando il fatto che la retta è incidente al piano.

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

#corso# INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA #insegnamento# 34/S1 #lezione# Mutua posizione di sottospazi affini #titolo# 1 #attività#

Sessione di Studio 34.1

Mutua posizione di sottospazi affini

Lezione 34. Mutua posizione di sottospazi affini

34–11

Sessione di Studio 34.1 Esercizio 34.1. Dimostra che i seguenti sottospazi affini di R4 sono sghembi:   x1 + 2x2 + 3x3 + x4 = 0 x1 − x2 + 2x3 − 2 = 0 . e x1 − 3x2 + 4x3 + 1 = 0 x2 + 3x3 − x4 + 3 = 0

Soluzione. L’intersezione dei due sottospazi affini è vuota infatti il sistema  x1 − x2 + 2x3 − 2 = 0    x2 + 3x3 − x4 + 3 = 0 x + 2x2 + 3x3 + x4 = 0    1 x1 − 3x2 + 4x3 + 1 = 0

non ha soluzione. Essi hanno rispettivamente le forme parametriche   x = −1 − 5t + s x1 = −1 + 3t − 4s   1     x2 = −3 − 3t + s x2 = t e , x = t x =s      3  3 x4 = s x4 = 1 − 5t + s

quindi le loro giaciture sono     −5 1 −3 1     Span   1  , 0 0 1

e



   3 −4  1   0      Span   0  ,  1  . −5 1

L’intersezione delle due giaciture è {0}, quindi therefore i due sottospazi affini sono sghembi. Esercizio 34.2. Trova la mutua posizione delle seguenti rette di V 2E : x − y − 3 = 0 e 3x + y = 0. Soluzione. L’intersezione delle due rette è un punto due rette sono incidenti.

3 4

− 94

!

, ◮ quindi le

Esercizio 34.3. Trova la mutua posizione dei seguenti piani di V 3E : x + y − 3z − 2 = 0 e 3x + 3y − 9z − 6 = 0.

Soluzione. Le due equazioni sono multiple l’una dell’altra, quindi i due piani sono coincidenti. Esercizio 34.4. Trova la mutua posizione delle seguenti rette di V 3E :    x=1−t 3x − y − z + 3 = 0 e y = 1 + 2t . 2x + y − 3 = 0  z = 1 − 5t

c 2014 Gennaro Amendola

Versione 1.0

◮ È

la soluzione x−y−3 =0 . 3x + y = 0

del

sistema

Lezione 34. Mutua posizione di sottospazi affini

34–12

Soluzione. L’intersezione delle due rette è vuota, infatti il sistema    3x − y − z + 3 = 0    2x + y − 3 = 0 x=1−t    y = 1 + 2t   z = 1 − 5t

non ha soluzione, quindi le due rette sono distinte  e sono o parallele o  x=t sghembe. Una forma parametrica della prima è y = 3 − 2t . I vettori  z = 5t     1 −1 direttori sono rispettivamente −2 e  2 , allora sono multipli l’uno 5 −5 dell’altro e quindi le due rette sono parallele. Esercizio 34.5. Trova la posizione della retta rispetto al piano x + 2y + 3z + 2 = 0 in V 3E .



2x + 5z − 3 = 0 x + y + 3z + 1 = 0 

 9 Soluzione. L’intersezione della retta e del piano è il punto −1, ◮ −3 quindi la retta è incidente al piano. Esercizio 34.6.  Data la retta r con forma implicita 5x − 3y + 2 = 0 e il −3 punto P = in V 2E , trova la retta parallela a r e passante per P ◮. −4

Soluzione. Sia ax + by + c = 0 la forma implicita della retta che stiamo cercando. Affinché essa sia parallela ad r, i suoi coefficienti a e b devono essere proporzionali a quelli di r. ◮ Visto che l’equazione ax + by + c = 0 può essere moltiplicata per un qualsiasi numero non nullo senza cambiare la retta, possiamo supporre che la coppia (a, b) sia (5, −3), ossia la forma implicita è 5x − 3y + d = 0 per un qualche d ∈ R. Visto che la retta deve contenere P , sostituiamo le sue coordinate nell’equazione: otteniamo 5(−3) − 3(−4) + d = 0 e quindi d = 3. Allora, una forma implicita della retta che stiamo cercando è 5x − 3y + 3 = 0.   x = 2 − 3t Esercizio 34.7. Data la retta r con forma parametrica y = −1 + 4t  z =5−t   4  e il punto P = −3 in V 3E , trova la retta parallela ad r e passante 2 ◮ per P . Soluzione. Affinché la retta che stiamo cercando sia parallela ad r, il suo vettore direttore deve essere un multiplo di uno qualsiasi di r: possiamo

c 2014 Gennaro Amendola

Versione 1.0

◮È la soluzione del   2x + 5z − 3 = 0 x + y + 3z + 1 = 0 .  x + 2y + 3z + 2 = 0

◮ Ossia che contiene P .

◮ Osservazione 34.13.

◮ Ossia che contiene P .

sistema

Lezione 34. Mutua posizione di sottospazi affini

34–13

  −3 scegliere proprio  4 . Visto che la retta che stiamo cercando deve −1 contenere il punto P , possiamo scegliere proprio P come punto base della sua forma parametrica. Quindi, una forma parametrica della retta   x = 4 − 3t y = −3 + 4t . che stiamo cercando è  z =2−t

Esercizio 34.8. Date le rette   r ed s con forme implicite rispettivamente 3x + 2y − z + 1 = 0 x + 3y − z + 2 = 0 e , e dato il punto P = x + 3y − 4z + 1 = 0 2x − 4y − 3 = 0   1 2 in V 3E , trova la retta incidente sia ad r che ad s, e passante per 0 ◮ P . Soluzione. La retta che stiamo cercando deve essere contenuta sia nel piano πr che contiene r e P che nel piano πs che contiene s e P (abbiamo che P non appartiene né ad r né ad s). ◮ Il piano πr che contiene r e P ha la forma implicita 2x − y + 3z = 0. ◮ ◮ Il piano πs che contiene s e P ha la forma implicita 3x−y−z−1 = 0. ◮ ◮ Visto che i due piani πr e πs sono distinti, la loro intersezione è la retta che stiamo cercando, ossia una forma implicita della retta è  2x − y + 3z = 0 . 3x − y − z − 1 = 0 Esercizio 34.9.  Dato  il piano π con forma implicita x − 4y + 2z − 5 = 0 3 e il punto P =  1  in V 3E , trova il piano parallelo a π e passante per −2 P ◮. Soluzione. Sia ax + by + cz + d = 0 la forma implicita del piano che stiamo cercando. Affinché esso sia parallelo a π, i suoi coefficienti a, b and c devono essere proporzionali a quelli di π. ◮ Visto che l’equazione ax + by + cz + d = 0 può essere moltiplicata per un qualsiasi numero non nullo senza cambiare il piano, possiamo supporre che la terna (a, b, c) è (1, −4, 2), ossia la forma implicita è x − 4y + 2z + d = 0 per un qualche d ∈ R. Visto che il piano deve contenere P , sostituiamo le sue coordinate nell’equazione: otteniamo 3 − 4 · (1) + 2 · (−2) + d = 0 e quindi d = 5. Allora, una forma implicita del piano che stiamo cercando è x − 4y + 2z + 5 = 0. Esercizio 34.10. Dati i piani α e β con forme implicite rispettivamente   2 x − 5y + z = 0 e 2x + y − z + 2 = 0, e dato il punto P =  0  in V 3E , −3 ◮ trova la retta parallela sia ad α che a β, e passante per P . c 2014 Gennaro Amendola

Versione 1.0

◮ Ossia che contiene P .

◮ ◮ Per trovarlo, il lettore può considerare il fascio di piani che contiene la retta r e imporre il passaggio per P (si vedano le Lezioni 7 e 33). ◮ ◮ ◮ Per trovarlo, il lettore può considerare il fascio di piani che contiene la retta s e imporre il passaggio per P (si vedano le Lezioni 7 e 33).

◮ Ossia che contiene P .

◮ Osservazione 34.15.

◮ Ossia che contiene P .

Lezione 34. Mutua posizione di sottospazi affini

34–14

Soluzione. La retta che stiamo cercando deve essere contenuta sia nel piano αP parallelo ad α passante per P , che nel piano βP parallelo a β passante per P . Analogamente a quanto abbiamo fatto nell’Esercizio 34.9, possiamo ottenere che una forma implicita del piano αP parallelo ad α passante per P è x − 5y + z + 1 = 0, e che una forma implicita del piano βP parallelo a β passante per P è 2x + y − z − 7 = 0. Visto che i due piani αP e βP sono distinti, la loro intersezione è la retta che stiamo cercando, ossia una forma implicita della retta è  x − 5y + z + 1 = 0 . 2x + y − z − 7 = 0 Esercizio 34.11. Date le rette r e s con forme implicite rispettivamente     1 x + 4y + 3 = 0 2x + y − 2 = 0 , e dato il punto P = −3 e 3y − z − 1 = 0 4x + 2y + z = 0 −1 3 ◮ in V E , trova il piano parallelo sia ad r che ad s, e passante per P .

Per avere esattamente una retta parallela ai due piani, essi non devono essere paralleli.

◮ Ossia che contiene P .

Soluzione. Visto che il piano che stiamo cercando deve essere parallelo alle rette, la sua giacitura deve contenere un vettore  direttore di cia x=λ scuna di esse. Una forma parametrica di r ed s è y = 2 − 2λ and  z = −4   x = 3 − 4λ′ , rispettivamente. y = λ′  ′ z = −1 + 3λ Visto che il piano deve contenere P , possiamo scegliere proprio P come punto base della sua forma I due vettori che generano  parametrica.  1 −4 la sua giacitura sono −2 e  1 . Quindi, una forma parametrica 0 3   x = 1 + λ − 4λ′ del piano che stiamo cercando è y = −3 − 2λ + λ′ .  z = −1 + 3λ′

Per avere esattamente un piano parallelo alle due rette, esse devono essere o incidenti o sghembe: in questo caso sono sghembe, ma questo fatto non è necessario per risolvere l’esercizio.

Soluzione. Sia ax + by + cz + d = 0 la forma implicita del piano che stiamo cercando. Affinché esso sia parallelo ad α, i suoi coefficienti a, b e c devono essere proporzionali a quelli di α. ◮ Visto che l’equazione ax + by + cz + d = 0 può essere moltiplicata per un qualsiasi numero non nullo senza cambiare il piano, possiamo supporre che la terna (a, b, c) è (2, 5, −3), ossia la forma implicita è 2x + 5y − 3z + d = 0 per un qualche d ∈ R. Per trovare d, scegliamo un punto A  di r e imponiamo il passaggio  x=t per A. Una forma parametrica di r è y = 3 − 4t , quindi possiamo  z = 5 − 6t

Affinché il piano esista, r deve essere parallela ad α.

Esercizio  34.12. Data la retta r e il piano α con forme implicite rispet4x + y − 3 = 0 e 2x + 5y − 3z + 1 = 0 in V 3E , trova il tivamente 2x − y + z − 2 = 0 piano parallelo ad α e contenente r.

c 2014 Gennaro Amendola

Versione 1.0

◮ Osservazione 34.15.

Lezione 34. Mutua posizione di sottospazi affini

34–15

  0 scegliere come A il punto 3. Visto che il piano deve contenere A, 5 sostituiamo le sue coordinate nell’equazione: otteniamo 2 · 0 + 5 · 3 − 3 · 5 + d = 0 e quindi d = 0. Allora, una forma implicita del piano che stiamo cercando è 2x + 5y − 3z = 0. Per controllare che il piano trovato contenga tutta la retta r scegliamo un altro punto B di r e controlliamo che il piano trovato contiene anche t = 1 nella forma parametrica di r otteniamo il punto B. ◮ Scegliendo   1 B = −1. Sostituiamo le coordinate di B nell’equazione, ottenendo −1 2 · 1 + 5 · (−1) − 3 · (−1) = 0, ossia 0 = 0. Quindi, il piano trovato, la cui forma implicita è 2x + 5y − 3z = 0, contiene tutta la retta r e quindi è il piano che stiamo cercando.

c 2014 Gennaro Amendola

Versione 1.0

◮ Se un piano contiene due punti, esso contiene anche la retta per i due punti.

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

#corso# INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA #insegnamento# 34/S2 #lezione# Mutua posizione di sottospazi affini #titolo# 1 #attività#

Sessione di Studio 34.2

Mutua posizione di sottospazi affini

Lezione 34. Mutua posizione di sottospazi affini

34–16

Sessione di Studio 34.2 Esercizio 34.13. Trova la mutua posizione delle seguenti coppie di rette di V 2E . 1. x + 2y − 1 = 0 e 3x − y − 2 = 0.   x = 3 + 2t x=t 2. e . y = 1 − 4t y = 1 − 2t  x=1−t 3. e 2x + y + 1 = 0. y = −3 + 2t 4. x − y + 3 = 0 e 2x − 2y − 3 = 0.   x=1−t x = 3 + 3t 5. e . y = 5 − 2t y =2−t   x = 4 − 2t x = 4t 6. e . y = −3 + t y = −1 − 2t

Esercizio 34.14. Trova la mutua posizione delle seguenti coppie di piani di V 3E . 1. 2x − 3y + 4z − 4 = 0 e x + 3y − 2z = 0.   x = 1 + t − 2s 2. y = 3 − 2t e 2x − y + 4z + 1 = 0.  z = −t + s    x = 2 − 2t + 3s  x = 2 + t − 5s 3. y = 2 − t + 2s e y = 1 + t − 3s .   z = 3 − 3t + s z = 2 − 2t − 4s    x = 3 + 2t − 4s  x = 3 − 2s 4. y = 1 − 3t + s e y = 1 − 5t − 2s .   z =2+s z =2+t+s   x = t − 3s 5. y = 2t + 4s e 3x − 2z + 4 = 0.  z =t−s 6. 3x − y + 4z − 3 = 0 e 3x − y + 4z + 3 = 0.

Esercizio 34.15. Trova la mutua posizione delle seguenti coppie di rette di V 3E .    x = 1 − 2λ  x = 4 + 4λ 1. y = 3−λ e y = 5 + 2λ .   z =4+λ z = 4 − 2λ   3x − 4y + 2 = 0 2x − 2y − 3z + 3 = 0 2. e . x − 2y + 3z − 1 = 0 5x − 6y − 3z + 5 = 0    x = 5 + 4t 2x − y − 1 = 0 3. e y = −6 − 3t . 3x + y + 2z = 0  z =1+t    x = −1 − λ  x = 6 + 4λ 4. y = −5 − 3λ e y = 3−λ .   z = 6 + 2λ z =1+λ c 2014 Gennaro Amendola

Versione 1.0

Lezione 34. Mutua posizione di sottospazi affini 

x+y+z−1=0 e 2x − y + z + 2 = 0

34–17



3x + 2y + 4z = 0 . y−z−2=0    x = 4 − 4λ x − 2y + z = 0 e 6. y = 3−λ . 2x − 6y + z + 5 = 0  z = 2 + 2λ    x=λ x − y + 3z − 2 = 0 7. . y = 1 − 2λ e 4x + 2z − 3 = 0  z=λ    x = 3 + 2λ 6x + y − 7z − 8 = 0 8. . y = 4 − 5λ e 5x + y − 5z − 9 = 0  z =2+λ 5.

Esercizio 34.16. Trova la mutua posizione della retta rispetto al piano di V 3E delle seguenti coppie.  2x + y + 3z − 3 = 0 1. e x + 2y − z + 4 = 0. 4x + y + 2z − 1 = 0    x = 3 + 2t  x = 2 + 3t + s 2. y = 2−t e y = 4 − 2s .   z = 4 − 3t z = 6 − 4t − 2s   x = 1 − 2t y = 3 + 2t e 2x − 3y − 2z + 5 = 0. 3.  z = 1 − 5t    x =1+t+s 4x − 3y + 2z + 3 = 0 e 4. y =1+s . x − 2y + 3z − 2 = 0  z = 3t + 2s    x=1+λ x − 2y + z + 1 = 0 5. e y = −7 − 3λ − 3µ . 2x − y + 4z − 1 = 0  z =2+µ  x + 3y − z − 1 = 0 e x − 9y + 5z + 5 = 0. 6. x−y+z+1=0

Esercizio 34.17.   Data la retta r con forma implicita 2x − y + 3 = 0 e 2 il punto P = in V 2E , trova la retta parallela ad r e passante per P . 5  x = 2 − 3t Esercizio 34.18. Data la retta r con forma parametrica y =3+t   −1 e il punto P = in V 2E , trova la retta parallela ad r e passante per 4 P.   x=4−t Esercizio 34.19. Data la retta r con forma parametrica y = 1 − 6t  z = 7 − 4t   8 e il punto P = −2 in V 3E , trova la retta parallela ad r e passante 0 per P . c 2014 Gennaro Amendola

Versione 1.0

Lezione 34. Mutua posizione di sottospazi affini

34–18 

3x − 2y + 6z + 2 = 0 Esercizio 34.20. Data la retta r con forma implicita 4x + 3y − z + 3 = 0   0 e il punto P = 3 in V 3E , trova la retta parallela ad r e passante per 1 P. Esercizio 34.21. Date lerette r e s con forme implicite rispettivamente  x+y−z =0 3x + y + 1 = 0 , e dato il punto P = e 2x + 3y − z − 2 = 0 x + 2y − z + 2 = 0   0 1 in V 3E , trova la retta incidente sia ad r che ad s, e passante per P . 2 Esercizio 34.22. Date le rette r e s conforma rispettivamente implicita   x=1+λ x + y − 4z + 1 = 0 e parametrica y = −3 − 6λ , e dato il punto 2x − y − 7z + 1 = 0  z = 3 + 5λ   1 P = −1 in V 3E , trova la retta incidente sia ad r che ad s, e passante 1 per P . Esercizio 34.23.  Dato  il piano π con forma implicita 3x−2y +z +1 = 0 2 e il punto P =  1  in V 3E , trova il piano parallelo a π and passing −6 through P .   x = 3 − 2t + s y =2−t−s Esercizio 34.24. Dato il piano π con forma parametrica  z = 1 − 3t + 4s   5 e il punto P = −1 in V 3E , trova il piano parallelo a π e passante per 4 P. Esercizio 34.25. Dati i piani α e β con forme implicite rispettivamente   1 x − 3y + 2z − 4 = 0 e x − 2y − 4z = 0, e dato il punto P = 1 in V 3E , 1 trova la retta parallela sia ad α che a β, e passante per P . Esercizio 34.26. Dati i piani  α e β con forme rispettivamente implicita   0  x = 3 + 3λ  y = 2 + λ , e dato il punto P = 0 x+y +z −2 = 0 e parametrica  z=µ 0 3 in V E , trova la retta parallela sia ad α che a β, e passante per P .

Esercizio 34.27. Date le rette  r e s con forme implicite rispettivamente  x + 2y + 1 = 0 2x + 2y + z − 1 = 0 , e dato il punto P = e 6x − y + z + 2 = 0 2x − 7y = 0   1 1 in V 3E , trova il piano parallelo sia ad r che ad s, e passante per P . 4 c 2014 Gennaro Amendola

Versione 1.0

Lezione 34. Mutua posizione di sottospazi affini

34–19

Esercizio34.28. Date le rette  r and s con forme parametriche rispetti  3  x=3−t  x=2+t vamente y = −2 + 3t e y = 1 + 2t , e dato il punto P =  0    z = 2 − 4t z =1−t −2 in V 3E , trova il piano parallelo sia ad r che ad s, e passante per P .

Esercizio  34.29. Data la retta r e il piano α con forme implicite rispetx+y+z−1=0 tivamente e 5x + 2y − z − 1 = 0 in V 3E , trova il 2x − y − 4z + 6 = 0 piano parallelo ad α e contenente r. Esercizio 34.30.  Data la retta re  x = 1 + 2t  rispettivamente y =2+t e   z =4−t piano parallelo ad α e contenente r.

c 2014 Gennaro Amendola

il piano α con forme parametriche x=3−λ+µ y = 1 − 2λ + µ in V 3E , trova il z = −4 + 2λ − µ

Versione 1.0

Lezione 34. Mutua posizione di sottospazi affini

34–20

Risultato dell’Esercizio 34.13. 1. Incidenti. 2. Parallele non coincidenti. 3. Coincidenti. 4. Parallele non coincidenti. 5. Incidenti. 6. Coincidenti. Risultato dell’Esercizio 34.14. 1. Incidenti. 2. Coincidenti. 3. Paralleli non coincidenti. 4. Coincidenti. 5. Incidenti. 6. Paralleli non coincidenti. Risultato dell’Esercizio 34.15. 1. Parallele non coincidenti. 2. Coincidenti. 3. Sghembe. 4. Incidenti. 5. Sghembe. 6. Parallele non coincidenti. 7. Incidenti. 8. Coincidenti. Risultato dell’Esercizio 34.16. 1. Incidente. 2. Contenuta. 3. Parallela non contenuta. 4. Parallela non contenuta. 5. Incidente. 6. Contenuta. Risultato dell’Esercizio 34.17. 2x − y + 1 = 0.  x = −1 − 3t Risultato dell’Esercizio 34.18. . y =4+t   x= 8−t y = −2 − 6t . Risultato dell’Esercizio 34.19.  z = 0 − 4t  3x − 2y + 6z = 0 . Risultato dell’Esercizio 34.20. 4x + 3y − z − 8 = 0  2x − y + z − 1 = 0 . Risultato dell’Esercizio 34.21. x + 2y − 2 = 0  x − 2y − 3z = 0 . Risultato dell’Esercizio 34.22. x+y+z−1 = 0

La forma della retta non è univocamente determinata, quindi il lettore può trovare una forma diversa. La forma della retta non è univocamente determinata, quindi il lettore può trovare una forma diversa. La forma della retta non è univocamente determinata, quindi il lettore può trovare una forma diversa. La forma della retta non è univocamente determinata, quindi il lettore può trovare una forma diversa. La forma della retta non è univocamente determinata, quindi il lettore può trovare una forma diversa. La forma della retta non è univocamente determinata, quindi il lettore può trovare una forma diversa.

Risultato dell’Esercizio 34.23. 3x − 2y + z + 2 = 0.   x = 5 − 2t + s y = −1 − t − s . Risultato dell’Esercizio 34.24.  z = 4 − 3t + 4s  x − 3y + 2z = 0 . Risultato dell’Esercizio 34.25. x − 2y − 4z + 5 = 0  x+y+z =0 . Risultato dell’Esercizio 34.26. x − 3y = 0

La forma della retta non è univocamente determinata, quindi il lettore può trovare una forma diversa. La forma della retta non è univocamente determinata, quindi il lettore può trovare una forma diversa. La forma della retta non è univocamente determinata, quindi il lettore può trovare una forma diversa. La forma della retta non è univocamente determinata, quindi il lettore può trovare una forma diversa.

Risultato dell’Esercizio 34.27. 4x − 5y + z − 3 = 0.   x= 3−t+s Risultato dell’Esercizio 34.28. y = 3t + 2s .  z = −2 − 4t − s

La forma della retta non è univocamente determinata, quindi il lettore può trovare una forma diversa. La forma della retta non è univocamente determinata, quindi il lettore può trovare una forma diversa.

Risultato dell’Esercizio 34.29. 5x + 2y − z + 3 = 0.   x= 1−λ+µ Risultato dell’Esercizio 34.30. y = 2 − 2λ + µ .  z = 4 + 2λ − µ

c 2014 Gennaro Amendola

La forma della retta non è univocamente determinata, quindi il lettore può trovare una forma diversa. La forma della retta non è univocamente determinata, quindi il lettore può trovare una forma diversa.

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

#corso# INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA #insegnamento# 34/S3 #lezione# Mutua posizione di sottospazi affini #titolo# 1 #attività#

Sessione di Studio 34.3

Mutua posizione di sottospazi affini

Lezione 34. Mutua posizione di sottospazi affini

34–21

Sessione di Studio 34.3 Letture supplementari possono essere le seguenti: • http://it.wikipedia.org/wiki/Retta

• http://it.wikipedia.org/wiki/Piano_(geometria)

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

#corso# INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA #insegnamento# 35 #lezione# Applicazioni affini #titolo# 1 #attività#

Lezione 35 Applicazioni affini

Lezione 35

Applicazioni affini In questa lezione introdurremo le applicazioni affini e le affinità. Esse generalizzano la nozione di applicazione lineare. Introdurremo anche un nuovo modo per scrivere un punto, che sarà utile per associare una matrice a una applicazione affine, e anche per controllare se punti sono allineati e complanari.

35.1

Applicazioni affini

Definizione 35.1. Una traslazione di un vettore v in uno spazio vettoriale V è la funzione

Traslazione Si veda l’Esempio 22.8-4. T·

Tv : V ∋ v 7−→ v + v ∈ V .

Il vettore v è detto vettore di traslazione. La traslazione Tv può anche essere indicata semplicemente con T , quando non è necessario specificare il vettore di traslazione. Definizione 35.2. Una funzione φ : V 1 → V 2 tra due spazi vettoriali sullo stesso campo e della forma φ = T ◦ f , dove f : V 1 → V 2 è un’applicazione lineare e T : V 2 → V 2 è una traslazione, è detta applicazione affine.

Applicazione affine

Notazione 35.3. Come per altri casi, se un’applicazione affine è applicata a un vettore colonna che è scritto esplicitamente, le parentesi non sono scritte:   x1  ..  φ . . xn

Osservazione 35.4. 1. Il vettore v della traslazione Tv è l’immagine rispetto a φ di 0, infatti φ(0) = Tv ◦f (0) = Tv (0) = 0 + v = v, mentre nella seconda uguaglianza abbiamo usato la linearità di f . ◮ 2. Un’applicazione lineare è un’applicazione affine, mentre il contrario è falso. Più precisamente, un’applicazione affine è un’applicazione lineare se e solo se la traslazione T è l’identità, T0 . Ciò succede se e solo se φ(0) = 0.

c 2014 Gennaro Amendola

Versione 1.0

◮ Osservazione 22.10.

Lezione 35. Applicazioni affini

35–2

Osservazione 35.5. Se V 1 = Km e V 2 = Kn , un’applicazione affine può essere scritta come φ(P ) = A · P + v,

con A ∈ Kn,m e v ∈ Kn . Infatti, le applicazioni lineari tra Km e Kn sono della forma P → 7 A · P ◮ e le traslazioni di Kn sono della forma P 7→ P + v.

Esempio 35.6. 1. Le rotazioni centrate in un qualsiasi punto del piano euclideo sono applicazioni affini. ◮

◮ Proposizione 22.25.

◮ Esercizio 35.1.

2. La funzione         3 2   0 3x1 + 2x2 x1 x 7−→ −1 0· 1 + 1  =  −x1 + 1  ∈ R3 φ : R2 ∋ x2 x2 1 4 −2 x1 + 4x2 − 2 è un’applicazione affine.

3. La funzione        x1 x1 −2 1 0 −2x1 + x2 φ : R3 ∋ x2  7−→  0 3 2 · x2  =  3x2 + 2x3  ∈ R3 1 −3 4 x3 x3 x1 − 3x2 + 4x3

è un’applicazione affine, che è anche lineare la  traslazione è   perché 0 0 ◮. l’identità ◮, o, equivalentemente, perché φ 0 = 0 ◮ 0 0

Lemma 35.7. Siano V 1 e V 2 due spazi vettoriali sullo stesso campo, e sia φ = T ◦ f : V 1 → V 2 un’applicazione affine. Se P ′ e P sono due punti di V 1 , allora   φ P ′ − φ(P ) = f P ′ − P .



  −2 1 0 x1  ◮ 0 3 2 x2  = 1 −3 4 x3      −2 1 0 0 x1 3 2 x2  + 0. = 0 1 −3 4 0 x3      −2 1 0 0 0 ◮ 3 2 0 = 0. ◮ 0 1 −3 4 0 0

Dimostrazione. Sia v ∈ V 2 il vettore di traslazione, ossia T = Tv . Abbiamo    φ P ′ − φ(P ) = T ◦ f P ′ − T ◦ f (P ) = T f P ′ − T (f (P )) =     = f P ′ + v − (f (P ) + v) = f P ′ − f (P ) = f P ′ − P ,

dove nella prima uguaglianza abbiamo usato il fatto che φ = T ◦ f , nella seconda la definizione di composizione di funzioni, nella terza la definizione della traslazione Tv , nella quarta le proprietà dello spazio vettoriale V , e nella quinta la linearità di f . Proposizione 35.8. Siano V 1 e V 2 due spazi vettoriali sullo stesso campo, e sia φ = T ◦ f : V 1 → V 2 un’applicazione affine. Sia S un sottospazio affine di V 1 . L’immagine di S rispetto a φ è un sottospazio affine di V 2 . Inoltre, la giacitura dell’immagine tramite φ di un sottospazio affine S di V 1 è l’immagine della giacitura di S rispetto a f . Non daremo la dimostrazione di questa proposizione, anche se non è difficile. Esempio 35.9. L’immagine di una qualsiasi retta nel piano euclideo rispetto a una rotazione centrata in un qualsiasi punto del piano euclideo è una retta. c 2014 Gennaro Amendola

Versione 1.0

Lezione 35. Applicazioni affini

35–3

Proposizione 35.10. Siano V 1 e V 2 due spazi vettoriali sullo stesso campo, e sia φ = T ◦ f : V 1 → V 2 un’applicazione affine. Se due sottospazi affini S e S ′ di V 1 sono paralleli, allora anche le loro immagini φ(S) e φ (S ′ ) sono parallele. Dimostrazione. Se chiamiamo W la giacitura di S, abbiamo che la giacitura di φ(S) è f (W ); se chiamiamo W ′ la giacitura di S ′ , abbiamo che la giacitura di φ (S ′ ) è f (W ′ ). ◮ Se i due sottospazi affini S e S ′ di V 1 sono paralleli, abbiamo che una delle giaciture è contenuta nell’altra. Possiamo supporre W ⊂ W ′ (l’altro caso è simmetrico). Allora abbiamo f (W ) ⊂ f (W ′ ) e quindi φ(S) e φ (S ′ ) sono paralleli. Osservazione 35.11. Tutte le traslazioni sono bigettive, quindi un’applicazione affine φ = T ◦ f è bigettiva se e solo se l’applicazione lineare f è bigettiva. In particolare, se φ = T ◦ f : V 1 → V 2 è bigettiva, allora abbiamo dim (V 1 ) = dim (V 2 ). Ciò è una conseguenza del Corollario 23.24: se l’applicazione lineare f è bigettiva, abbiamo dim (V 1 ) = dim (V 2 ). Proposizione 35.12. La composizione di applicazioni affini è un’applicazione affine. L’inversa di un’applicazione affine invertibile è un’applicazione affine.

◮ Proposizione 35.8.

Questa è solo una delle due implicazioni: l’implicazione inversa non vale, ossia esistono applicazioni affini tra spazi vettoriali della stessa dimensione che non sono bigettive.

Non daremo la dimostrazione di questa proposizione, anche se non è difficile. Definizione 35.13. Sia V uno spazio vettoriale. Un’applicazione affine φ : V → V invertibile è detta affinità.

Proposizione 35.14. La composizione di affinità è un’affinità. L’inversa di un’affinità è un’affinità. Non daremo la dimostrazione di questa proposizione, anche se non è difficile. Teorema 35.15. Sia V uno spazio vettoriale, e sia φ = T ◦ f : V → V un’affinità. • Due sottospazi affini S e S ′ di V sono incidenti, se e solo se le loro immagini φ(S) e φ (S ′ ) sono incidenti.

Affinità Alcuni alcuni libri di testo usano il termine “affinità” come sinonimo di “applicazione affine”, e quindi qui l’applicazione di questa definizione è chiamata “affinità invertibile su uno spazio vettoriale” o “applicazione affine invertibile su uno spazio vettoriale”. Noi invece usiamo il termine “affinità” come sinonimo di “applicazione affine invertibile su uno spazio vettoriale”.

• Due sottospazi affini S e S ′ di V sono paralleli, se e solo se le loro immagini φ(S) e φ (S ′ ) sono parallele. • Due sottospazi affini S e S ′ di V sono sghembi, se e solo se le loro immagini φ(S) e φ (S ′ ) sono sghembe. Non daremo la dimostrazione di questo teorema, anche se non è difficile. Osservazione 35.16. Le classificazioni fatte nella Lezione 34 sono dette classificazioni affini. Esse consistono nel classificare tutte le possibilità “a meno di affinità”, ossia la proprietà di essere coincidenti, paralleli, incidenti o sghembi è preservata rispetto alle affinità.

c 2014 Gennaro Amendola

Versione 1.0

Classificazione affine

Lezione 35. Applicazioni affini

35–4

Forma matriciale delle applicazioni affini Per semplicità, consideriamo solo gli spazi vettoriali Kn , ma tutto ciò che diremo in questa sezione può essere generalizzato a un generico spazio vettoriale scegliendone (arbitrariamente) una base. Appendiamo una coordinata fittizia ai punti di Kn fissandola  uguale    P1 P1  P2   P2        a 1, ossia scriviamo un generico punto P =  .  come Pa =  ...  ◮. .    .  Pn  Pn 1

Osservazione 35.17. L’applicazione Kn ∋ P 7−→ Pa ∈ Kn+1 è un’applicazione affine, ma non è lineare.  Infatti  è la composizione dell’ap  P1 P1  P2     P2      plicazione lineare Kn ∋  .  7−→  ...  ∈ Kn+1 e della traslazione .    .  Pn  Pn 0   0 0     n+1 n+1 Ten+1 : K →K , dove en+1 =  ...  è l’(n + 1)-esimo vettore della   0 1 n+1 base canonica di K .

Consideriamo un’applicazione affine φ = T ◦ f : Km → Kn . Abbia-

mo ◮

con A ∈ Kn,m e v ∈ Kn . Scrivendo tutto esplicitamente abbiamo         a11 a12 · · · a1m (φ(P ))1 P1 v1  (φ(P ))   a21 a22 · · · a2m   P2   v 2  2         =  ..  .. .. ..  ·  ..  +  ..  . . .   .  . . . .   .  . an1 an2 · · · anm

Pm

i=1

ani

vn

Appendendo l’ultimo addendo alla combinazione lineare ottenuta, abbiamo un nuovo prodotto righe per colonne:       P1 (φ(P ))1 a11 a12 · · · a1m v 1  P2   (φ(P ))   a21 a22 · · · a2m v 2    2   .      =  .. .. .. ..  ·  ..  . .. ..     . . . . .  . Pm  an1 an2 · · · anm v n (φ(P ))n 1 c 2014 Gennaro Amendola

Notiamo che non ha senso sommare due punti nell’ambito affine (Lezione 33), infatti facendo la somma usando la notazione Pa porterebbe a un punto la cui ultima entrata è 1+1 = 2, mentre l’ultima entrata deve essere sempre 1.

Abbiamo che l’applicazione lineare è f = fA , mentre la traslazione è T = Tv .

vn

Possiamo riscrivere il prodotto righe per colonne: ◮       a1i (φ(P ))1 v1 m  v2   a2i   (φ(P ))  X 2      Pi  .  + 1  .  . =  .. .  ..   .    . (φ(P ))n

◮ Il pedice a sta per “affine”.

◮ Osservazione 35.5.

φ(P ) = A · P + v,

(φ(P ))n

Appendiamo soltanto un “1” sotto le n coordinate del punto.

Versione 1.0

◮ Osservazione 17.19.

Lezione 35. Applicazioni affini

35–5

Per ottenere anche nel codominio φ(P )a , invece di φ(P ), appendiamo una riga fittizia all’equazione in forma vettoriale:       a11 a12 · · · a1m v 1 (φ(P ))1 P1  (φ(P ))   a21 a22 · · · a2m v 2   P2  2        ..  .. .. ..  ·  ..  . .. . . =   .    . . . . .   .     (φ(P ))n  an1 an2 · · · anm v n  Pm  1 1 0 0 ··· 0 1

Abbiamo quindi scritto l’applicazione affine φ = T ◦ f come un prodotto righe per colonne, indicato anche con   A v · Pa . (φ(P ))a = 0 1

Definizione 35.18. Data un’applicazione affine φ = T ◦ f : Km → Kn , la matrice costruita sopra, che è indicata con   A v [φ] := , 0 1

Nonostante la riscrittura di φ come un prodotto righe per colonne, l’applicazione affine φ non è lineare in generale: essa è lineare se e solo se il vettore di traslazione è nullo. Matrice associata ad un’applicazione affine [·]

dove f = fA e T = Tv , è detta matrice associata all’applicazione affine φ. Esempio 35.19. Le matrici associate alle applicazioni affini dell’Esempio 35.6 sono le seguenti.     cos α − sen α (1 − cos α)cx + sen α · cy c   1. sen α cos α − sen α · cx + (1 − cos α)cy , dove x è il cency 0 0 1 tro della rotazione e α è l’angolo della rotazione nel verso antiorario. ◮   3 2 0 −1 0 1   2.   1 4 −2. 0 0 1   −2 1 0 0 0 3 2 0  3.   1 −3 4 0. 0 0 0 1

Osservazione 35.20. Se l’applicazione affine φ = T ◦ f : Kn → Kn che ha il codominio uguale al dominio, allora [φ] è quadrata. In tal caso, se φ è invertibile, essa è un’affinità ◮. Proposizione 35.21. Un’applicazione affine φ = T ◦ f : un’affinità se e solo se la matrice [φ] è invertibile.

Kn



Kn

◮ Esercizio 35.1.

◮ Definizione 35.13.

è

Non daremo la dimostrazione di questa proposizione, anche se non è difficile.

Allineamento e complanarità Usando la (n + 1)-esima coordinata (che è sempre 1 ◮), possiamo anche capire facilmente se alcuni punti sono allineati o complanari.

c 2014 Gennaro Amendola

Versione 1.0

◮ Finora, perché vedremo nelle seguenti lezioni che la (n + 1)-esima coordinata può cambiare.

Lezione 35. Applicazioni affini

35–6

Proposizione 35.22. Alcuni punti P (1) , P (2) , . . . , P (m) dello spazio vettoriale Kn sono allineati (ossia sono contenuti in un sottospazio affine di dimensione 1) se e solo se la matrice (n + 1) × m le cui colonne sono (1) (2) (m) formate dalle coordinate di Pa , Pa , . . . , Pa ha rango al più 2. Non daremo la dimostrazione di questa proposizione, anche se non è difficile.       1 3 −3      Esempio 35.23. 1. I tre punti 0 , −1 , 2  of R3 sono al2 1 4 lineati, infatti   1 3 −3 0 −1 2   = 2. rank  2 1 4 1 1 1         1 2 1 −1 2. I quattro punti , , , of R2 non sono allineati, 1 −1 3 2 infatti   1 2 1 −1 rank 1 −1 3 2  = 3 > 2. 1 1 1 1

Proposizione 35.24. Alcuni punti P (1) , P (2) , . . . , P (m) dello spazio vettoriale Kn sono complanari (ossia sono contenuti in un sottospazio affine di dimensione 2) se e solo se la matrice (n + 1) × m le cui colonne sono (1) (2) (m) formate dalle coordinate di Pa , Pa , . . . , Pa ha rango al più 3. Non daremo la dimostrazione di questa proposizione, anche se non è difficile.         −1 2 0 1 Esempio 35.25. 1. I quattro punti 1 ,  1  ,  0  , 0 of 1 1 3 −1 R3 sono complanari, infatti   1 −1 2 0 1 1 0 0  rank  1 3 −1 1 = 3. 1 1 1 1         4 1 1 0 2. I quattro punti 0 , −2 , 2 , 0 of R3 non sono compla1 3 0 0 nari, infatti   0 1 1 4 0 −2 2 0  rank  0 0 3 1 = 4 > 3. 1 1 1 1

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

#corso# INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA #insegnamento# 35/S1 #lezione# Applicazioni affini #titolo# 1 #attività#

Sessione di Studio 35.1

Applicazioni affini

Lezione 35. Applicazioni affini

35–7

Sessione di Studio 35.1 Esercizio 35.1. che le rotazioni rotC,α del piano centrate in   Dimostra cx di un angolo α nel verso antiorario sono applicazioni un punto C = cy affini. Soluzione. Consideriamo la rotazione rotO,α del piano centrata nell’o 0 rigine O = di un angolo α nel verso antiorario, che in coordinate 0 è◮       x cos α − sen α x rotO,α = · . y sen α cos α y

◮ Esercizio 22.2.

Abbiamo rotC,α = TC ◦ rotO,α ◦ (TC )−1 . Visto che (TC )−1 = T−C , abbiamo     x x rotC,α = TC ◦ rotO,α ◦ T−C = y y      !!   cos α − sen α x c c = · + x = − x sen α cos α cy y cy           cos α − sen α x c cos α − sen α c = · − · x + x . cy sen α cos α y sen α cos α cy

Quindi, rotC,α è l’applicazione affine  la rotazione    P 7→A ·P +  v, con cos α − sen α cos α − sen α cx cx A= ev=− · + . sen α cos α sen α cos α cy cy     1 2 Esercizio 35.2. Trova l’affinità dello spazio φ tale che φ 1 = 0, 0 4             1 3 0 0 1 1 φ  2  = −3, φ 0 = 1 e φ 1 = 2. Trova la matrice −1 3 1 5 1 7 associata a φ.

Soluzione. Scriviamo φ = T ◦ f . Abbiamo ◮             0 1 1 1 1 1 f  2  − 1 = φ  2  − φ 1 , i.e. f  1  = −3 , 0 −1 0 −1 −1 −1             0 1 0 1 −1 −2 f 0 − 1 = φ 0 − φ 1 , i.e. f −1 =  1  , 1 0 1 0 1 1             1 1 1 1 0 −1              f 1 − 1 = φ 1 − φ 1 , i.e. f 0 = 2 . 1 0 1 0 1 3

c 2014 Gennaro Amendola

Versione 1.0

◮ Lemma 35.7.

Lezione 35. Applicazioni affini

35–8



     0 −1 0 I vettori  1 , −1 e 0 formano una base, quindi l’applicazione −1 1 1 lineare f è univocamente determinata, e abbiamo che f = fA con A =   1 0 −1 2 −1 2 . ◮ 0 2 3   v1 Ora, se T = Tv con v = v2 , abbiamo v3           1 1 2 1 v1 φ 1 = T ◦ f 1 , ossia 0 = 1 + v2  , 0 0 4 2 v3           1 1 3 2 v1 φ  2  = T ◦ f  2  , ossia −3 = −2 + v2  , −1 −1 3 1 v3           −1 v1 0 0 0          2 + v2  , φ 0 = T ◦ f 0 , ossia 1 = 5 3 v3 1 1           v1 0 1 1 1          φ 1 = T ◦ f 1 , ossia 2 = 3 + v2  . 5 7 1 v3 1   1 Allora, abbiamo v = −1 e quindi 2         x1 1 0 −1 x1 1 φ x2  = 2 −1 2  · x2  + −1 . x3 0 2 3 x3 2   1 0 −1 1 2 −1 2 −1 . La matrice associata a φ è [φ] =  0 2 3 2 0 0 0 1   1 Esercizio 35.3. Trova i valori del parametro k tale che i tre punti 1, 1     2 −1 −1,  k  sono allineati. 0 3 Soluzione. Calcoliamo il rango della matrice ◮   1 2 −1 1 −1 k  . Ak =  1 0 3 1 1 1 c 2014 Gennaro Amendola

Versione 1.0

◮ Abbiamo visto come trovare l’applicazione lineare fissando l’immagine degli elementi di una base di uno spazio vettoriale, e come scrivere la matrice a cui essa è associata nella Lezione 22.

◮ Proposizione 35.22.

Lezione 35. Applicazioni affini

35–9

Abbiamo

( 2 k=5 , rank(A) = 3 k= 6 5

quindi i tre punti sono allineati se k = 5.

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

#corso# INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA #insegnamento# 35/S2 #lezione# Applicazioni affini #titolo# 1 #attività#

Sessione di Studio 35.2

Applicazioni affini

Lezione 35. Applicazioni affini

35–10

Sessione di Studio 35.2   0 Esercizio 35.4. Trova l’applicazione affine del piano φ tale che φ = 0           2 1 −1 0 0 ,φ = ,φ = . Trova la matrice associata a φ. 3 0 2 1 4 Esercizio 35.5. Trova la matrice associata all’applicazione affine     x1 x1 − x3 − 5   x2  3   φ : R4 ∋  x3  7−→ x2 + x3 − 2x4 + 1 ∈ R . x1 − 3x2 + x4 − 3 x4

Esercizio 35.6. Trova la matrice associata all’affinità     x1 x2 − 5x1 + 2x3 − x4 − 1 x2    x1 + x2 − 4x4    ∈ R4 . φ : R4 ∋  x3  7−→   x1 − x4 + 5 x4 x1 − x2 + 3x3 − 1

Esercizio 35.7. Quali delle seguenti applicazioni affini sono affinità?     x1 x1 − x2 − x4 + 1 x2     7−→ 2x1 − x2 − 2x3 − 2 ∈ R4 . 1. φ : R4 ∋  x3    x2 − x3 + 1 x4 3x1 + x2 + 4x3     x−y x 2. φ : R2 ∋ 7−→ 2x + 3y − 3 ∈ R3 . y x + 4y − 2     x x−y 2 3. φ : R ∋ 7−→ ∈ R2 . y y−x−3           3 −2 8 −7 −1 Esercizio 35.8. I cinque punti , , , , sono 1 4 −2 7 5 allineati?         1 0 1 2        Esercizio 35.9. I quattro punti 0 , 1 , 2 , −1 sono 1 −1 −3 3 complanari? Esercizio    35.10.   Trova  i valori  del parametro k tale che i quattro punti 1 2 k −1 2, −1, −4,  8  sono allineati. 1 3 5 −k

Esercizio  del parametro k tale che i quattro punti  ivalori  Trova    35.11. 1 −4 −1 2  0 ,  1 ,  1 , 0 sono complanari. k 2 −3 −1

c 2014 Gennaro Amendola

Versione 1.0

Lezione 35. Applicazioni affini

Risultato  −3 [φ] = −1 0

35–11 

x dell’Esercizio 35.4. φ 1 x2  −2 2 1 3. 0 1



=



     −3 −2 x1 2 · + . −1 1 x2 3



1 0 −1 0 1 1 Risultato dell’Esercizio 35.5. [φ] =  1 −3 0 0 0 0  −5 1 2 1 1 0  1 0 0 Risultato dell’Esercizio 35.6. [φ] =    1 −1 3 0 0 0

Risultato dell’Esercizio 35.7. 1. Sì. 2. No. 3. No.

 0 −5 −2 1  . 1 −3 0 1  −1 −1 −4 0   −1 5  . 0 −1 0

1

Risultato dell’Esercizio 35.8. No. Risultato dell’Esercizio 35.9. Sì. Risultato dell’Esercizio 35.10. k = 3. Risultato dell’Esercizio 35.11. k = 32 .

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

#corso# INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA #insegnamento# 35/S3 #lezione# Applicazioni affini #titolo# 1 #attività#

Sessione di Studio 35.3

Applicazioni affini

Lezione 35. Applicazioni affini

35–12

Sessione di Studio 35.3 Letture supplementari possono essere le seguenti: • http://it.wikipedia.org/wiki/Traslazione_(geometria)

• http://it.wikipedia.org/wiki/Geometria_affine

• http://it.wikipedia.org/wiki/Trasformazione_affine

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

#corso# INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA #insegnamento# 36 #lezione# Prodotti scalari #titolo# 1 #attività#

Lezione 36 Prodotti scalari

Lezione 36

Prodotti scalari In questa lezione introdurremo e studieremo i prodotti scalari e le norme. Essi risultano essere strumenti utili per calcolare gli angoli e le lunghezze.

36.1

Prodotti scalari

D’ora in poi, considereremo solo spazi vettoriali reali, ossia quelli sul campo R. ◮ Definizione 36.1. Dato uno spazio vettoriale reale V , un’applicazione h·, ·i : V × V −→ R è detta forma bilineare su V se soddisfa le seguenti proprietà: (Bil) (Sx) per ogni w ∈ V l’applicazione h·, wi : V −→ R è lineare, ossia (a) per ogni v 1 , v 2 ∈ V si ha l’uguaglianza hv1 + v 2 , wi = hv 1 , wi + hv 2 , wi, (b) per ogni v ∈ V e λ ∈ R si ha l’uguaglianza hλ · v, wi = λ · hv, wi; (Dx) per ogni w ∈ V l’applicazione hw, ·i : V −→ R è lineare, ossia (a) per ogni v 1 , v 2 ∈ V si ha l’uguaglianza hw, v 1 + v2 i = hw, v 1 i + hw, v 2 i, (b) per ogni v ∈ V e λ ∈ R si ha l’uguaglianza hw, λ · vi = λ · hw, vi. Osservazione 36.2. Con la notazione classica delle funzioni, avremmo dovuto chiamare, ad esempio, la funzione con g e indicare l’immagine della coppia (v, w) con g(v, w). Invece, usiamo la notazione hv, wi per due motivi: ◮ • semplifichiamo la notazione, ottenendo formule più semplici; • usiamo una notazione analoga a quella delle operazioni, infatti penseremo questa applicazione come un’operazione (non interna).

Esempio 36.3.

1. L’applicazione h·, ·i : R3 × R3 −→ R definita da

hX, Y i = 3x1 y1 + 2x2 y1 − x2 y3 − 4x3 y3

è una forma bilineare, infatti le due proprietà della definizione sono soddisfatte: c 2014 Gennaro Amendola

Versione 1.0

Qui consideriamo solo spazi vettoriali reali. ◮ Definizione 10.12.

Forma bilineare L’applicazione h·, ·i non è lineare.

Le due addizioni nell’uguaglianza sono diverse: nel membro sinistro l’addizione è su V , nel membro destro è su R. Le due moltiplicazioni nell’uguaglianza sono diverse: nel membro sinistro c’è la moltiplicazione per scalare su V , nel membro destro la moltiplicazione su R. Le due addizioni nell’uguaglianza sono diverse: nel membro sinistro l’addizione è su V , nel membro destro è su R. Le due moltiplicazioni nell’uguaglianza sono diverse: nel membro sinistro c’è la moltiplicazione per scalare su V , nel membro destro la moltiplicazione su R.

◮ Osservazioni 9.2 e 9.3.

Lezione 36. Prodotti scalari

36–2

(Bil) (Sx) per ogni Y ∈ R3 l’applicazione h·, Y i : R3 −→ R è lineare, perché fissando Y il polinomio 3x1 y1 +2x2 y1 − x2 y3 − 4x3 y3 nelle variabili x1 , x2 , x3 ha grado 1 e non ha il termine noto; (Dx) per ogni X ∈ R3 l’applicazione hX, ·i : R3 −→ R è lineare, perché fissando X il polinomio 3x1 y1 +2x2 y1 − x2 y3 − 4x3 y3 nelle variabili y1 , y2 , y3 ha grado 1 e non ha il termine noto. 2. L’applicazione h·, ·i : R2 × R2 −→ R definita da hX, Y i = x1 y2 + x2

non è una forma bilineare, infatti la seconda proprietà della definizione non è soddisfatta: ◮ 2 (Bil) (Dx) per ogni X ∈ R2 l’applicazione  hX, ·i : R −→ R non 0 abbiamo che x1 y2 + è lineare, perché per X = 1 x2 = 1 nelle variabili y1 , y2 è una funzione costante non nulla ◮.

Definizione 36.4. Dato uno spazio vettoriale reale V , una forma bilineare h·, ·i : V × V −→ R è detta simmetrica se soddisfa la seguente proprietà: (Sim) per ogni v, w ∈ V si ha l’uguaglianza hv, wi = hw, vi.

Esempio 36.5. 1. La forma bilineare dell’Esempio 36.3-1 non è sim◮ metrica, infatti ◮ ◮ D  t E t 0 1 0 , 1 0 0 = 3·0·1+2·1·1−1·0−4·0·0 = 2 e

D

 t E 1 0 0 , 0 1 0 = 3·1·0+2·0·0−0·0−4·0·0 = 0

t

sono diversi, ossia D  t E Dt  t E t 0 1 0 , 1 0 0 6= 1 0 0 , 0 1 0 .

◮ La prima è soddisfatta, infatti per ogni Y ∈ R2 l’applicazione h·, Y i : R3 −→ R è lineare, perché fissando Y il polinomio x1 y2 + x2 nelle variabili x1 , x2 ha grado 1 e non ha il termine noto.

◮ Esempio 22.8-1.

Forma bilineare simmetrica

    0 1 ◮ Scegliamo X = 1 e Y = 0. 0 0 ◮ spesso la ◮ D’ora in poi, useremo abbastanza  t notazione x1 x2 · · · xn , invece di   x1  x2     . .  ..  xn

2. La forma bilineare h·, ·i : R2 × R2 −→ R definita da hX, Y i = x1 y1 − x1 y2 − x2 y1 + 5x2 y2

è simmetrica, infatti D  t E t x1 x2 , y1 y2 = x1 y1 − x1 y2 − x2 y1 + 5x2 y2

e

D

t

E  t y1 y2 , x1 x2 = y1 x1 − y1 x2 − y2 x1 + 5y2 x2

sono uguali per ogni tutti gli X, Y ∈ R2 .

Definizione 36.6. Dato uno spazio vettoriale reale V , una forma bilineare h·, ·i : V × V −→ R è detta definita positiva se soddisfa la seguente proprietà: (Pos) per ogni v ∈ V si ha l’uguaglianza hv, vi > 0, con hv, vi = 0 se e solo se v = 0. c 2014 Gennaro Amendola

Versione 1.0

Forma bilineare definita positiva

Lezione 36. Prodotti scalari

36–3

Esempio 36.7. 1. La forma bilineare dell’Esempio 36.3-1 non è definita positiva, infatti abbiamo ◮ D  t E t 0 0 1 , 0 0 1 = 3·0·0+2·0·0−0·1−4·1·1 = −4 < 0  t con 0 0 1 6= 0. 2. La forma bilineare dell’Esempio 36.5-2 è definita positiva, infatti abbiamo D E  t t x1 x2 , x1 x2 = x1 x1 − x1 x2 − x2 x1 + 5x2 x2 =

  0 ◮ Scegliamo X = 0. 1

per ottenere x21 −2x1 x2 +x22 =(x1 −x2 )2

=

x21

z }| { − 2x1 x2 +x22 − x22 +5x22 =

= (x1 − x2 )2 + 4x22 > 0, e quindi una somma di quadrati che non  è mai negativa ed è tale x1 − x2 = 0 ◮ che (x1 − x2 )2 + 4x22 = 0 se e solo se , ossia se e 2x2 = 0   x1 = 0. solo se x2

Osservazione 36.8. Se V è uno spazio vettoriale reale e h·, ·i : V × V −→ R è una forma bilineare, allora la Proprietà (Pos) è equivalente alla seguente proprietà: (Pos′ ) per ogni v ∈ V \ {0} si ha l’uguaglianza hv, vi > 0. Infatti, la Proprietà (Bil-Sx), applicata al caso w = 0, implica che l’applicazione h·, 0i : V × V −→ R è lineare, e quindi abbiamo che h0, 0i = 0. ◮ Definizione 36.9. Dato uno spazio vettoriale reale V , un prodotto scalare su V è una forma h·, ·i : V × V −→ R bilineare, simmetrica e definita positiva.

◮ a2 + b2 = 0 (Esempio 4.5-5).



(a, b)

=

(0, 0)

◮ Osservazione 22.10.

Prodotto scalare

Esempio 36.10. Tra tutte le applicazioni degli Esempi 36.3, 36.5 e 36.7 solo l’applicazione h·, ·i : R2 × R2 −→ R definita da hX, Y i = x1 y1 − x1 y2 − x2 y1 + 5x2 y2 è un prodotto scalare perché è bilineare, simmetrica e definita positiva. Osservazione 36.11. Per verificare che un’applicazione è un prodotto scalare è sufficiente verificare soltanto le Proprietà (Bil-Sx), (Sim) e (Pos). Infatti, la Proprietà (Bil-Dx) può essere facilmente dedotta dalle Proprietà (Bil-Sx) e (Sim). La dimostrazione è semplice quindi la lasciamo al lettore. Definizione 36.12. Il prodotto scalare standard, su Rn è la forma h·, ·i : Rn × Rn −→ R tale che hX, Y i := t X · Y,

ossia, in coordinate, D

t

E  t x1 x2 · · · xn , y1 y2 · · · yn := x1 x2

c 2014 Gennaro Amendola

Prodotto scalare standard Qui stiamo considerando solo lo spazio vettoriale reale Rn . Usiamo lo stesso simbolo h·, ·i, perché la differenza dagli altri prodotti scalari sarà chiara dal contesto.

 y1    y2  · · · xn · .  = x1 y1 +x2 y2 +· · ·+xn yn .  ..  

yn

Versione 1.0

Lezione 36. Prodotti scalari

36–4

Proposizione 36.13. Il prodotto scalare standard è effettivamente un prodotto scalare. Non daremo la dimostrazione di questa proposizione, anche se non è difficile. Esempio 36.14. Abbiamo D

t

1. Consideriamo il prodotto scalare standard su R3 .

  2   t E  3 −1 0 , 2 4 −5 = 3 −1 0 · 4  = 3·2+(−1)·4+0·(−5) = 2. −5

2. Consideriamo il prodotto scalare standard su Rn . Consideriamo la base canonica En = {e1 , e2 , . . . , en } di Rn . Abbiamo ( 1 se i = j per i, j = 1, . . . , n. hei , ej i = 0 se i 6= j Infatti, nella somma x1 y1 +x2 y2 +· · ·+xn yn della Definizione 36.12 tutti gli x∗ e gli y∗ sono 0 eccetto per xi e yj e quindi il risultato è • o 1 se i = j, • o 0 se i 6= j.

Osservazione 36.15. Le Proprietà (Bil) e (Sim) di un prodotto scalare h·, ·i su uno spazio vettoriale reale V permettono di “fare i conti”, come possiamo vedere nella catena di uguaglianze seguenti: hλv + µw, λv + µwi

(Bil-Sx-a)

=

(Bil-Dx-a)

=

(Bil-Sx-b)

=

(Bil-Dx-b)

=

(Sim)

hλv, λv + µwi + hµw, λv + µwi

Come detto nella Notazione 9.33, sui segni di uguaglianza indichiamo quale proprietà stiamo usando.

(Bil-Dx-a)

=

hλv, λvi + hλv, µwi + hµw, λvi + hµw, µwi λhv, λvi + λhv, µwi + µhw, λvi + µhw, µwi

(Bil-Sx-b)

=

(Bil-Dx-b)

=

(Sim)

λ2 hv, vi + λµhv, wi + λµhw, vi + µ2 hw, wi =

= λ2 hv, vi + λµhv, wi + λµhv, wi + µ2 hw, wi =

= λ2 hv, vi + 2λµhv, wi + µ2 hw, wi.

Il calcolo precedente può essere generalizzato facilmente a una qualsiasi combinazione lineare: + * n m X X X µj w j = λi µj hvi , wj i. (36.1) λi v i , i=1

j=1

i=1,2,...,n j=1,2,...,m

Infatti, abbiamo la seguente catena di uguaglianze:

c 2014 Gennaro Amendola

Come detto nella Notazione 9.33, sui segni di uguaglianza indichiamo quale proprietà stiamo usando.

Versione 1.0

Lezione 36. Prodotti scalari * n X

λi v i ,

m X

µj w j

j=1

i=1

+

36–5

(Bil-Sx-a)

=

+ * m n X X (Bil-Dx-a) = µj w j λi v i , j=1

i=1

(Bil-Dx-a)

=

X

hλi v i , µj wj i

X

λi hv i , µj wj i

X

λi µj hv i , w j i.

(Bil-Sx-b)

=

i=1,2,...,n j=1,2,...,m (Bil-Sx-b)

=

i=1,2,...,n j=1,2,...,m (Bil-Dx-b)

=

i=1,2,...,n j=1,2,...,m

(Bil-Dx-b)

=

Esempio 36.16. Consideriamo il prodotto scalare standard su Rn e la sua base canonica En = {e1 , e2 , . . . , en }. Consideriamo due vettori colonna X * e Y . ◮ Abbiamo + n n X X X X xi yj hei , ej i = yj ej = xi y j = xi ei , hX, Y i = j=1

i=1

i=1,2,...,n j=1,2,...,n

i=1,2,...,n j=1,2,...,n i=j

◮ Potremmo semplicemente applicare la definizione del prodotto scalare standard per calcolare hX, Y i, ma qui vogliamo mostrare come può essere applicata l’Osservazione 36.15.

= x1 y 1 + x2 y 2 + · · · + xn y n . dove nelle uguaglianze abbiamo applicato rispettivamente l’Osservazione P 14.32-3, l’Osservazione 36.15, l’Esempio 36.14-2 e la definizione di .

36.2

Norme

Definizione 36.17. Dato un prodotto scalare h·, ·i su uno spazio vettoriale reale V , la norma associata al prodotto scalare h·, ·i di un vettore v ∈ V è il numero reale p kvk := hv, vi.

Norma associata ad un prodotto scalare

Osservazione 36.20. La norma può essere pensata anche come una funzione

Questa funzione non è lineare, ma vedremo sotto che è “quasi lineare”.

Esempio 36.18. Consideriamo la norma associata al prodotto scalare dell’Esempio 36.10. Abbiamo rD

 t E  t

t

1 −1 , 1 −1 =

1 −1 = p √ √ = 1 · 1 − 1 · (−1) − (−1) · 1 + 5 · (−1) · (−1) = 8 = 2 2. Osservazione 36.19. La norma è definita per ogni vettore v dello spazio vettoriale reale V , ossia l’argomento della radice quadrata è sempre ◮ Proprietà (Pos). maggiore o uguale a 0. Infatti, abbiamo hv, vi > 0 per ogni v ∈ V . ◮

V ∋ v 7−→ kvk ∈ R,

che associa ad ogni vettore la sua norma. Definizione 36.21. La norma associata al prodotto scalare standard dello spazio vettoriale reale Rn è detta norma standard su Rn ed è data da q kXk =

t

X · X,

c 2014 Gennaro Amendola

Versione 1.0

Norma standard Qui stiamo considerando soltanto lo spazio vettoriale reale Rn . Usiamo lo stesso simbolo k·k, perché la differenza dalle altre norme sarà chiara dal contesto.

Lezione 36. Prodotti scalari

36–6

ossia, in coordinate, q



t 2 2 2

x1 x2 · · · xn = (x1 ) + (x2 ) + · · · + (xn ) .

Esempio 36.22. 1. Consideriamo la norma standard su R3 . Abbiamo

√ 

t

p

2 −1 0 = 22 + (−1)2 + 02 = 5. 2. Consideriamo la norma standard su Rn . Consideriamo la base canonica En = {e1 , e2 , . . . , en } di Rn . Abbiamo kei k = 1

per i = 1, . . . , n.

Infatti, nella somma (x1 )2 + (x2 )2 + · · · + (xn )2 della Definizione 36.21 tutti √ gli x∗ sono 0 eccetto per xi , che è 1, e quindi il risultato è 12 = 1. Per completezza, elencheremo qui alcuni risultati sulle norme e sui prodotti scalari. Non li dimostreremo. Proposizione 36.23. Sia k·k la norma associata al prodotto scalare h·, ·i su uno spazio vettoriale reale V . Allora, per ogni v, w ∈ V , vale l’uguaglianza  1 hv, wi = kvk2 + kwk2 − kv − wk2 . 2 Esempio 36.24. Consideriamo il prodotto scalare standard su R2 . Abbiamo che D  t E t 2 −1 , 1 0 = 2 · 1 + (−1) · 0 = 2

Dato un prodotto scalare, la norma associata può essere pensata “equivalente” ad esso: la norma è definita dal prodotto scalare, ma il prodotto scalare può essere recuperato dalla norma.

e  

 t    1

t

2 t

2

2 t

2 −1 + 1 0 − 2 −1 − 1 0 = 2 2 √ 2 p 2 p 22 + (−1)2 + 12 + 02 − (2 − 1)2 + (−1 − 0)2 =2 = 2 are equal.

Proposizione 36.25. Sia k·k la norma associata al prodotto scalare h·, ·i su uno spazio vettoriale reale V . Allora, le seguenti proprietà sono soddisfatte: 1. per ogni v ∈ V si ha la disuguaglianza kvk > 0, con kvk = 0 se e solo se v = 0; 2. per ogni v ∈ V e λ ∈ R si ha l’uguaglianza kλ · vk = |λ| · kvk.

Esempio 36.26. Consideriamo il prodotto scalare standard su R2 . Abbiamo che

p √   t

t

(−2) · 1 −1 = −2 2 == (−2)2 + 22 = 8 e

p √ 

t

|−2| · 1 −1 = 2 · 12 + (−1)2 = 2 2

sono uguali.

c 2014 Gennaro Amendola

Versione 1.0

Le due moltiplicazioni nell’uguaglianza sono diverse: nel membro sinistro c’è la moltiplicazione per scalare su V , nel membro destro la moltiplicazione su R.

Lezione 36. Prodotti scalari

36–7

Teorema 36.27 (Disuguaglianza di Cauchy-Schwarz). Sia k·k la norma associata al prodotto scalare h·, ·i su uno spazio vettoriale reale V . Allora, per ogni v, w ∈ V si ha la disuguaglianza

Disuguaglianza di Cauchy-Schwarz

|hv, wi| 6 kvk · kwk; l’uguaglianza |hv, wi| = kvk · kwk vale se e solo se v e w sono linearmente dipendenti. Esempio 36.28. Consideriamo il prodotto scalare standard su R2 . Abbiamo che D  t E t 1 0 , −1 2 = |1 · (−1) + 0 · 2| = 1 è minore di ◮

p √  

t

t

p

1 0 · −1 2 = 12 + 02 · (−1)2 + 22 = 5.

In virtue of Remark 13.8, v and w are linearly independent if and only if one of them is a multiple of the other.

◮ Perché 12
0 and



3 > 0.

Abbiamo anche che D  t E t 1 −2 , 2 −4 = |1 · 2 + (−2) · (−4)| = 10

è uguale a

p  

t

t

p

1 −2 · 2 −4 = 12 + (−2)2 · 22 + (−4)2 = 10.

Proposizione 36.29 (Disuguaglianza triangolare). Sia k·k la norma associata al prodotto scalare h·, ·i su uno spazio vettoriale reale V . Allora, per ogni v, w ∈ V si ha la disuguaglianza

Disuguaglianza triangolare Vedremo che nel caso dei vettori geometrici la norma sarà la lunghezza del vettore. Questo spiega il nome della proposizione.

kv + wk 6 kvk + kwk; l’uguaglianza kv + wk = kvk + kwk vale se e solo se v è un multiplo di w con un fattore moltiplicativo positivo o nullo, o viceversa. Esempio 36.30. Consideriamo il prodotto scalare standard su R2 . Abbiamo che

√  t 

t

p

2 0 + −1 1 = (2 − 1)2 + (0 + 1)2 = 2 è minore di

p √  

t

t

p

2 0 + −1 1 = 22 + 02 + (−1)2 + 12 = 2 + 2 Abbiamo anche che

√  t 

t

p

−1 1 + −2 2 = (−1 − 2)2 + (1 + 2)2 = 3 2

è uguale a

p √ √ √  

t

t

p

−1 1 + −2 2 = (−1)2 + 12 + (−2)2 + 22 = 2+2 2 = 3 2.

Osservazione 36.31. La funzione k·k non è lineare, ma abbiamo visto sopra che soddisfa due proprietà simili a quelle della linearità. ◮

c 2014 Gennaro Amendola

Versione 1.0

◮ Proposizioni 36.25 e 36.29.

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

#corso# INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA #insegnamento# 36/S1 #lezione# Prodotti scalari #titolo# 1 #attività#

Sessione di Studio 36.1

Prodotti scalari

Lezione 36. Prodotti scalari

36–8

Sessione di Studio 36.1 Esercizio 36.1. Dimostra che hX, Y i = x1 y1 − 2x1 y3 − 2x3 y1 + 5x2 y2 + 7x3 y3 definisce un prodotto scalare su R3 . Soluzione. Dimostriamo le tre proprietà della definizione di prodotto scalare. (Bil) (Sx) per ogni Y ∈ R3 l’applicazione h·, Y i : R3 −→ R è lineare, perché fissando Y il polinomio x1 y1 −2x1 y3 −2x3 y1 +5x2 y2 + 7x3 y3 nelle variabili x1 , x2 , x3 ha grado 1 e non ha il termine noto. (Dx) per ogni X ∈ R3 l’applicazione hX, ·i : R3 −→ R è lineare, perché fissando X il polinomio x1 y1 −2x1 y3 −2x3 y1 +5x2 y2 + 7x3 y3 nelle variabili y1 , y2 , y3 ha grado 1 e non ha il termine noto. (Sim) Abbiamo che e

hX, Y i = x1 y1 − 2x1 y3 − 2x3 y1 + 5x2 y2 + 7x3 y3 hY, Xi = y1 x1 − 2y1 x3 − 2y3 x1 + 5y2 x2 + 7y3 x3

sono uguali per tutti gli X, Y ∈ R3 .

(Pos) Abbiamo

hX, Xi = x21 − 4x1 x3 + 5x2 x2 + 7x3 x3 =

per ottenere x21 −4x1 x3 +x23 =(x1 −2x3 )2

}| { z = x21 − 4x1 x3 +4x23 − 4x23 +5x22 + 7x23 =

= (x1 − 2x3 )2 + 5x22 + 3x23 > 0,

e quindi una somma di quadrati che non è mai  negativa ed è tale x1 − 2x3 = 0  √ 2 2 2 che (x1 − 2x3 ) + 5x2 + 3x3 = 0 se e solo se 5x2 = 0 ,  √ 3x3 = 0   x1 ossia se e solo se x2  = 0. x3 3 Esercizio 36.2. Consideriamo scalare standard.ETroD D R con il prodotto  E t t 3 va i vettori X ∈ R tali che X, 3 4 −2 = 0, X, 1 1 0 = 0 e kXk = 3.   x1 Soluzione. Consideriamo un generico vettore colonna x2 , e impox3 niamo che le tre richieste siano soddisfatte:  D  E  t x1 x2 x3 , t 3 4 −2 = 0    D  t E t , x1 x2 x3 , 1 1 0 = 0



  t 



x1 x2 x3 = 3 c 2014 Gennaro Amendola

Versione 1.0

Lezione 36. Prodotti scalari

ossia

  3x1 + 4x2 − 2x3 = 0 x1 + x2 = 0 .  p 2 2 2 x1 + x2 + x3 = 3

36–9



   −2 2 Le soluzioni di questo sistema sono X =  2  e X = −2, ◮ che 1 −1 sono i vettori che stiamo cercando.

c 2014 Gennaro Amendola

Versione 1.0

◮ Abbiamo visto come risolvere i sistemi nella Lezione 4. Notiamo che il sistema non è lineare, quindi può avere due soluzioni.

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

#corso# INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA #insegnamento# 36/S2 #lezione# Prodotti scalari #titolo# 1 #attività#

Sessione di Studio 36.2

Prodotti scalari

Lezione 36. Prodotti scalari

36–10

Sessione di Studio 36.2 Esercizio 36.3. Dimostra che hX, Y i = x1 y1 +3x2 y2 +x2 y3 +x3 y2 +x3 y3 definisce un prodotto scalare su R3 . Esercizio 36.4. Calcola il prodotto scalare standard delle seguenti coppie di vettori.     2 5 1. e . −3 6     3 −1    2. 2 e 2 . 0 4     2 5 3. −4 e −2. 3 −6     1 0 3 2    4.   0  e −1. −1 4   −2 . Esercizio 36.5. Calcola la norma standard dei seguenti vettori. 1. 5       −2 0 1 3  2.  3 . 3. 4. 4.   0 . 8 −4 6

Esercizio 36.6. Consideriamo R2 con la forma bilineare data da hX, Y i = 3x1 y1 − x1 y2 − x2 y2 . Trova due vettori X, Y ∈ R2 tali che hX, Y i 6= hY, Xi.

Esercizio 36.7. Consideriamo R3 con il prodotto scalare dato da hX, Y i = x1 y1 − 2x1 y3 − 2x3 y1 + 5x2 y2 + 7x3 y3 . Trova un vettore con la norma associata al prodotto scalare h·, ·i diversa dalla norma standard. D E t Esercizio 36.8. Trova i vettori X ∈ V 2E tali che X, 2 −1 = 0 e √ kXk = 5. D E t Esercizio 36.9. Trova i vettori X ∈ V 3E tali che X, 2 0 1 = 0, D E t X, 0 3 1 = 0, kXk = 7.

c 2014 Gennaro Amendola

Versione 1.0

Lezione 36. Prodotti scalari

36–11

Risultato dell’Esercizio 36.3. Dimostra le tre proprietà della definizione di prodotto scalare. Risultato dell’Esercizio 36.4. 1. −8.

Esempio 36.14.

2. 1.

3. 0. 4. 2. Risultato dell’Esercizio 36.5. √ 1. 29.

Esempio 36.22.

2. 5. 3. 9. 4. 7. Risultato dell’Esercizio 36.6.

Risultato dell’Esercizio 36.7.

Risultato dell’Esercizio 36.8.

Risultato dell’Esercizio 36.9.

c 2014 Gennaro Amendola

    1 0 X= eY = . 0 1   0  X = 1. 0   1 ± . 2   3 ±  2 . −6

Questo esercizio non ha un’unica soluzione, quindi il lettore può trovare una soluzione diversa. Questo esercizio non ha un’unica soluzione, quindi il lettore può trovare una soluzione diversa.

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

#corso# INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA #insegnamento# 36/S3 #lezione# Prodotti scalari #titolo# 1 #attività#

Sessione di Studio 36.3

Prodotti scalari

Lezione 36. Prodotti scalari

36–12

Sessione di Studio 36.3 Letture supplementari possono essere le seguenti: • http://it.wikipedia.org/wiki/Forma_bilineare

• http://it.wikipedia.org/wiki/Prodotto_scalare

• http://it.wikipedia.org/wiki/Norma_(matematica)

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

#corso# INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA #insegnamento# 37 #lezione# Angoli e distanze #titolo# 1 #attività#

Lezione 37 Angoli e distanze

Lezione 37

Angoli e distanze In questa lezione introdurremo e studieremo il prodotto scalare euclideo nel piano e nello spazio euclideo. Useremo questo e il prodotto scalare standard per calcolare gli angoli e le distanze. Li useremo anche per studiare il parallelismo e l’ortogonalità di rette e piani.

37.1

Angoli negli spazi vettoriali euclidei

Nella geometria euclidea (e anche in fisica) è consueto utilizzare un’altra nozione di prodotto scalare, che è equivalente a quella standard. Questa definizione è data nel piano euclideo V 2E e nello spazio euclideo V 3E . ◮ Stiamo tacitamente considerando un sistema di riferimento cartesiano, e in tutta questa lezione continueremo a fare ciò, quindi abbiamo l’identificazione dei vettori geometrici e dei vettori colonna con 2 o 3 coordinate ◮ (a seconda se stiamo considerando rispettivamente V 2E o V 3E ). ◮ Definizione 37.1. Dati due vettori geometrici v e w, l’angolo tra essi è l’angolo tra le semirette definite dai vettori, {kv | k > 0} e {kw | k > 0}, ed è indicato con

◮ La definizione su V 3E “implica” quella su V 2E , perché V 2E può essere pensato come un sottoinsieme di V 3E , e, fissando un sistema di riferimento cartesiano appropriato in V 3E , possiamo supporre che i vettori euclidei di V 2E siano quelli che hanno la terza coordinata nulla. ◮ ◮ Lezione 8.

Angolo tra vettori geometrici

d vw.

Più precisamente, abbiamo due casi: • se i due vettori sono linearmente indipendenti, essi sono contenuti in un piano, vale a dire Span(v, w) ◮, e l’angolo α è la porzione di piano delimitata dalle due semirette;

◮ Che è tutto V 2E se siamo nel piano euclideo.

• altrimenti, se le due semirette sono uguali, l’angolo α è 0; se non lo sono, l’angolo α è π. Definizione 37.2. Il prodotto scalare euclideo è la forma h·, ·i : V 2E × V 2E −→ R o h·, ·i : V 3E × V 3E −→ R (a seconda se stiamo considerando rispettivamente V 2E o V 3E ) tale che ◮ hv, wi := kvk · kwk · cos (d v w) ,

dove kuk è la lunghezza del vettore geometrico u, ed è chiamata norma euclidea. Esempio 37.3. Il prodotto scalare euclideo di due vettori geometrici v e w tali che c 2014 Gennaro Amendola

Versione 1.0

Prodotto scalare euclideo Qui stiamo considerando soltanto il piano euclideo e lo spazio euclideo. Usiamo il simbolo h·, ·i, perché vedremo sotto che il prodotto scalare euclideo è uguale al prodotto scalare standard. ◮ cos (d vw) è il (Esempio 6.3).

coseno

Norma euclidea

d dell’angolo v w

Usiamo il simbolo k·k, perché vedremo sotto che la norma euclidea è uguale alla norma standard.

Lezione 37. Angoli e distanze

37–2

• la lunghezza di v è 2, ossia la norma euclidea di v è kvk = 2,

• la lunghezza di v è 3, ossia la norma euclidea di w è kwk = 3 e

è

• l’angolo tra essi è

π 6,

d ossia v w=

π 6

√ π = 3 3. 6 Proposizione 37.4. Consideriamo un sistema di riferimento cartesiano per V 2E (risp. V 3E ), quindi abbiamo l’identificazione dei vettori geometrici e dei vettori colonna in R2 (risp. R3 ). Il prodotto scalare euclideo in V 2E (risp. V 3E ) coincide con il prodotto scalare standard di R2 (risp. R3 ). La norma euclidea in V 2E (risp. V 3E ) coincide con la norma standard di R2 (risp. R3 ). hv, wi = kvk · kwk · cos (d v w) = 2 · 3 · cos

Non daremo la dimostrazione di questa proposizione, perché è abbastanza lunga.     1 1 Esempio 37.5. Consideriamo i vettori geometrici e di V 2E . 0 1 Il prodotto scalare euclideo dei due vettori \   !

D  t E   1 1 t

t

t

1 0 , 1 1 = 1 0 · 1 1 · cos = 0 1 √ √ √ π 2 = 1 · 2 · cos = 1 · 2 · =1 4 2 e il prodotto scalare standard di essi D  t E t 1 0 , 1 1 =1·1+0·1 =1 sono uguali.

Corollario 37.6. Il prodotto scalare euclideo in V 2E (risp. V 3E ) è in effetti un prodotto scalare. La sua norma associata è la norma euclidea. Dimostrazione. Visto che il prodotto scalare euclideo in V 2E (risp. V 3E ) coincide con il prodotto scalare standard, è un prodotto scalare. Quindi, la sua norma associata, che è la norma euclidea, è la norma associata al prodotto scalare standard, che è la norma standard. Notazione 37.7. D’ora in poi, non distingueremo tra il prodotto scalare standard e il prodotto scalare euclideo in V 2E (risp. V 3E ), e tra la norma standard e la norma euclidea in V 2E (risp. V 3E ). ◮ Osservazione 37.8. Attraverso il prodotto scalare standard possiamo calcolare l’angolo tra vettori geometrici non nulli di V 2E (risp. V 3E ). Infatti, abbiamo due vettori geometrici non nulli v e w, la Proposizione 37.4 afferma che il prodotto scalare standard di essi è hv, wi = kvk · kwk · cos (d v w) .

Quindi ◮

cos (d v w) = ossia ◮

◮ Possiamo dividere per kvk e kwk perché v e w, e quindi le loro norme, sono diversi da zero.

hv, wi , kvk · kwk

d vw = arccos



hv, wi kvk · kwk

c 2014 Gennaro Amendola



◮ Questo può essere fatto per la Proposizione 37.4.

◮ arccos x è l’arcocoseno del numero reale x, definito per −1 6 x 6 1.

.

Versione 1.0

Lezione 37. Angoli e distanze

37–3

    1 1 Esempio 37.9. Consideriamo i vettori geometrici e of V 2E . 0 1 Supponiamo che non conosciamo l’angolo tra essi. ◮ Attraverso l’Osser- ◮ Abbiamo visto nell’Esempio 37.5 che è vazione 37.8 possiamo trovare l’angolo tra essi:  Dt  t E  √ ! \     1 0 , 1 1 1 2 π 1 1



 = arccos √ √ . = arccos  = arccos =   t t



0 1 2 4 1· 2

1 0 · 1 1

Osservazione 37.10. L’osservazione precedente implica che due vettori geometrici sono ortogonali se e solo se il loro prodotto scalare standard d è nullo. Infatti, v w = π2 se e solo se cos (d v w) = 0, ossia se e solo se hv, wi = 0.     1 1 Esempio 37.11. 1. I vettori geometrici e di V 2E non sono 0 1 ortogonali, infatti D  t E t 1 0 , 1 1 = 1 6= 0. 

   2 1 2. I vettori geometrici −1 e −1 di V 3E sono ortogonali, infatti 3 −1 D  E t t 2 −1 3 , 1 −1 −1 = 0.

Osservazione 37.12. Consideriamo due sottospazi vettoriali W = Span(w) e W ′ = Span (w ′ ) di V 2E o V 3E , di dimensione 1, ossia due rette passanti per l’origine. Essi sono ortogonali se e solo se

w, w′ = 0.

Consideriamo una forma parametrica di essi (pensati come sottospazi affini). Se siamo nel piano euclideo, abbiamo   x = lt x = l′ t ′ W : con t ∈ R e W : con t ∈ R, y = mt y = m′ t

e le due rette sono ortogonali se e solo se D  t E t l m , l′ m′ = 0, ossia

ll′ + mm′ = 0. Se siamo nello spazio euclideo, abbiamo    x = lt  x = l′ t ′ W : y = mt con t ∈ R e W : y = m′ t   z = nt z = n′ t

con t ∈ R,

e le due rette sono ortogonali se e solo se D  t E t l m n , l′ m′ n′ = 0,

ossia

ll′ + mm′ + nn′ = 0. c 2014 Gennaro Amendola

Versione 1.0

π . 4

Lezione 37. Angoli e distanze

37–4

Esempio 37.13. Consideriamo le coppie di vettori geometrici dell’Esempio 37.11.     1 1 1. I sottospazi vettoriali Span e Span di V 2E non sono 0 1 ortogonali, infatti D  t E t 1 0 , 1 1 = 1 · 1 + 0 · 1 = 1 6= 0. 

   2 1       2. I sottospazi vettoriali Span −1 e Span −1 di V 3E 3 −1 sono ortogonali, infatti D  t E t 2 −1 3 , 1 −1 −1 = 2·1+ (−1)·(−1)+ 3·(−1) = 0.

Osservazione 37.14. Consideriamo due sottospazi vettoriali W = Span(w) e W ′ = Span (w′ ) di V 2E o V 3E , di dimensione 1, ossia due rette passanti per l’origine. Per trovare l’angolo formato da loro, usiamo di nuovo il  ′i hw,w prodotto scalare standard ◮ calcolando arccos kwk·kw′ k . Se chiamiamo ◮ Osservazione 37.8. α l’angolo trovato, abbiamo ( α se α 6 π2 \ W W′ = . π − α se α > π2

Il motivo per i due casi è che α può non essere l’angolo formato dalle \ ◮, mentre l’angolo W due rette, ma invece può essere l’angolo π − α ◮ W′ ◮ è il più piccolo tra essi. ◮ ◮ ◦ ◮ O 180 − α, in gradi. Consideriamo una forma parametrica di essi (pensati come sottospazi ◮ ◮ affini), con la stessa notazione dell’Osservazione 37.12. Se siamo nel ◮ ◮ Lezione 7. piano euclideo, abbiamo  Dt  t E    l m , l ′ m′ ll′ + mm′ 

√ √ α = arccos  = arccos .  t 

t l2 + m2 · l′2 + m′2

l m · l ′ m′

Se siamo nello spazio euclideo, abbiamo  Dt  t E    l m n , l ′ m′ n ′ ll′ + mm′ + nn′  



√ α = arccos t .  t  = arccos √ 2 l + m2 + n2 · l′2 + m′2 + n′2

l m n · l ′ m′ n ′

Esempio 37.15. Consideriamo la coppia di vettori geometrici dell’Esempio 37.9. Per calcolare l’angolo formato  dai due sottospazi vettoriali 1 1 W = Span e W ′ = Span di V 2E calcoliamo 0 1  Dt  t E  √ !   1 0 , 1 1 1 2 π



 = arccos √ √ α = arccos  = arccos = .  

t

t

2 4 1· 2

1 0 · 1 1 Visto che

π 4

\ 6 π2 , abbiamo che W W ′ = α = π4 .

c 2014 Gennaro Amendola

Versione 1.0

Lezione 37. Angoli e distanze

37–5 

 −2 , quindi possiamo anche 0

Abbiamo anche che W = Span   −2 usare come w dell’Osservazione 37.14, ottenendo 0  Dt  t E  √ !   −2 0 , 1 1 −2 2 3π



 = arccos √ √ . α = arccos  = arccos − =  

t

t

2 4 4· 2

−2 0 · 1 1

Visto che

3π 4

\ > π2 , abbiamo che W W′ = π − α = π −

3π 4

= π4 .

Osservazione 37.16. Consideriamo un sottospazio vettoriale W = Span(w) di V 2E di dimensione 1, ossia una retta passante per l’origine. Consideriamo una sua forma implicita (pensata   come un sottospazio a affine): ax + by = 0. ◮ Il vettore geometrico è ortogonale alla retta, b ossia è ortogonale a tutti i vettori della retta, infatti abbiamo ◮   D  t E x t ∈ V 2E . a b , x y = ax + by = 0 per ogni y

Analogamente, consideriamo un sottospazio vettoriale W = Span(w) di V 3E di dimensione 2, ossia un piano passante per l’origine. Consideriamo una sua forma implicita (pensato come   un sottospazio affine): a  ◮ ax + by + cz = 0. Il vettore geometrico b  è ortogonale al piano, c ossia è ortogonale a tutti i vettori del piano, infatti abbiamo ◮   x D E   t t a b c , x y z = ax + by + cz = 0 per ogni y  ∈ V 3E . z

Definizione 37.17. Data una forma implicita di un sottospazio vettoriale W = Span(w) di V 2E di dimensione 1,ossia  una retta passante per a l’origine, ax + by = 0, il vettore geometrico è detto vettore normale b alla retta. Data una forma implicita di un sottospazio vettoriale W = Span(w) di V 3E di dimensione 2, ossia  un  piano passante per l’origine, ax + by + a cz = 0, il vettore geometrico  b  è detto vettore normale al piano. c 1. Un vettore alla retta W di V 2E con for normale  3 ma implicita 3x + 2y = 0 è . Se cambiamo la forma implicita, 2 considerando per esempio −6x−4y = 0, otteniamo un’altro vettore   −6 normale alla retta W . −4

Esempio 37.18.

2 2. Un vettorenormale  al piano W di V E con forma implicita x − y + 1  4z = 0 è −1. Se cambiamo la forma implicita, considerando 4 c 2014 Gennaro Amendola

Versione 1.0

◮ Visto che la retta passa per l’origine, il termine noto è 0. ◮ Osservazione 37.10.

◮ Visto che il piano passa per l’origine, il termine noto è 0. ◮ Osservazione 37.10.

Vettore normale

Lezione 37. Angoli e distanze

37–6

per esempio 2x − 2y + 8z = 0, otteniamo un’altro vettore normale   2 −2 al piano W . 8

Osservazione 37.19. Consideriamo due sottospazi vettoriali W e W ′ di V 2E , di dimensione 1, ossia due rette passanti per l’origine. ◮ Consideriamo una forma implicita di ciascuno di essi (pensati come sottospazi affini): rispettivamente ax + by = 0 e a′ x + b′ y = 0. ◮ Per trovare l’angolo tra loro, possiamo   usare  il fatto che ogni vettore normale, che è rispeta a′ tivamente e , è ortogonale alla retta corrispondente. ◮ Quindi, b b′ questo implica che l’angolo tra le due rette W e W ′ è uguale all’ango a lo tra le rette ortogonali ad esse, che chiamiamo U := Span e b  ′  a U ′ := Span , ossia b′ \ W W ′ = Ud U ′.

Il membro destro può essere calcolato con il prodotto scalare standard. ◮ In particolare, le due rette W e W ′ sono ortogonali se e solo se D  t E t a b , a′ b′ = 0.

Analogamente, consideriamo due sottospazi vettoriali W e W ′ di V 3E , di dimensione 2, ossia due piani passanti per l’origine. ◮ Consideriamo una forma implicita di ciascuno di essi (pensati come sottospazi affini): rispettivamente ax + by + cz = 0 e a′ x + b′ y + c′ z = 0. ◮ Per trovare l’angolo diedro tra loro,possiamo   usare  il fatto che ogni vettore a a′ normale, che è rispettivamente  b  e  b′ , è ortogonale al piano corc c′ rispondente. ◮ Quindi, questo implica che l’angolo diedro tra i due piani W e W ′ è uguale tra le retteortogonali  all’angolo   ′  ad essi, che chiamiamo a a ′       b b′ , ossia U := Span and U := Span c c′ \ W W ′ = Ud U ′.

Il membro destro può essere calcolato con il prodotto scalare standard. ◮ In particolare, i due piani W e W ′ sono ortogonali se e solo se D  t E t a b c , a′ b′ c′ = 0.

Esempio 37.20. 1. Consideriamo le due rette W e W ′ di V 2E passanti per l’origine con forma implicita rispettivamente − 3y=0  2x 2 1 e x + 4y = 0. I vettori normali sono rispettivamente e . −3 4 L’angolo tra i vettori normali è  Dt  t E   \     2 −3 , 1 4 −10 2 1 

√ √ = arccos  .  

t

t

= arccos −3 4 13 · 17

2 −3 · 1 4

c 2014 Gennaro Amendola

Versione 1.0

◮ Qui consideriamo solo rette nel piano euclideo V 2E . ◮ Visto che le rette passano per l’orgine, i termini noti sono 0. ◮ Osservazione 37.16.

◮ Osservazione 37.14.

◮ Qui consideriamo solo piani nello spazio euclideo V 3E . ◮ Since the lines pass through the origin, the constant terms are 0.

◮ Osservazione 37.16.

◮ Osservazione 37.14.

Lezione 37. Angoli e distanze

37–7

Visto che l’angolo trovato è maggiore di π2 , ◮ l’angolo tra le rette   −10 √ è π − arccos √13· . ◮ Le rette W e W ′ non sono ortogonali 17 perché l’angolo tra esse non è π2 , o equivalentemente il prodotto scalare standard tra i due vettori normali non è 0.

◮ Perché il coseno è negativo. √ ◮ √ −10

is not the cosine of a known an13· 17 gle, but there exists an angle α such that √ . cos α = √ −10 13·

17

2. Consideriamo i due piani W e W ′ di V 3E passanti per l’origine con forma implicita rispettivamente x + 3y− z  = 0 e2x+ y + 5z = 0. I 1 2    vettori normali sono rispettivamente 3 e 1. L’angolo tra −1 5 i vettori normali è  \    Dt  t E    1 2 1 3 −1 , 2 1 5 π 0  3  1 = arccos 



 = arccos √ √ = .  

t

t

2 11 · 30 1 3 −1 · 2 1 5



−1 5 Visto che l’angolo trovato è minore o uguale a π2 , ◮ l’angolo diedro tra i piani è π2 . I piani W e W ′ sono ortogonali perché l’angolo tra essi è π2 , o equivalentemente il prodotto scalare standard tra i due vettori normali è 0.

Osservazione 37.21. Consideriamo due sottospazi vettoriali W e W ′ di V 3E , di dimensione rispettivamente 1 e 2, ossia una retta e un piano passanti per l’origine. ◮ Consideriamo una forma parametrica della retta e una forma implicita del piano (pensati come sottospazi affini): rispet x = lt tivamente y = mt con t ∈ R and ax + by + cz = 0. ◮ Per trovare  z = nt l’angolo tra loro, possiamo usare il fatto che il vettore normale al piano,   a che è  b , è ortogonale al piano. ◮ Quindi, questo implica che l’angolo c tra W e W ′ è uguale a π2 meno l’angolo tra W e la retta ortogonale a   a ′ ′ :=   W , che chiamiamo U Span b , ossia c π \′ \ W W′ = − W U. 2 \ L’angolo W U ′ può essere calcolato con il prodotto scalare standard. ◮

′ In particolare, la retta W eil  piano W  sono ortogonali se e solo se l a ′ \    W U = 0, ossia se e solo se m e b  sono multipli l’uno dell’altro. n c \ Inoltre, la retta W è contenuta nel piano W ′ se e solo se W U′ = π,

ossia se D e solo se  E t t l m n , a b c = 0.

◮ Perché il coseno è positivo o nullo.

◮ Qui consideriamo solo una retta e un piano nello spazio euclideo V 3E .

◮ Visto che la retta e il piano passano per l’origine, il punto base può essere scelto O il termine noto è 0, rispettivamente.

◮ Osservazione 37.16.

◮ Osservazione 37.14.

Notiamo che questo è il contrario di ciò che succede per due rette o due piani: la ragione è che il vettore direttore è parallelo alla retta mentre il vettore normale è ortogonale al piano.

2

3 1. Consideriamo la retta W e il piano W ′ di VE  x=t passanti per l’origine rispettivamente con forma parametrica y = −2t  z = 3t

Esempio 37.22.

c 2014 Gennaro Amendola

Versione 1.0

Lezione 37. Angoli e distanze

37–8

e forma della retta  implicita 2x + y − z = 0. Il vettore  direttore  1 2 è −2. Il vettore normale al piano è  1 . L’angolo tra il 3 −1 vettore direttore della retta e il vettore normale al piano è  \    Dt  t E    1 2 1 −2 3 , 2 1 −1 −3 −2  1  = arccos  

√ √ = arccos = arccos  t 

t 14 · 6 1 −2 3 · 2 1 −1



3 −1

√ ! − 3 √ . 2 7

π 2,

l’angolo tra la retta  √ −√ 3 W e la retta ortogonale al piano W è π − arccos 2 7 , quindi Visto che l’angolo trovato è maggiore di ′

l’angolo tra la retta W e il piano W ′ è √ !! π − 3 √ − π − arccos = arccos 2 2 7

√ ! − 3 π √ − . 2 2 7

2. Consideriamo la retta W e il piano W ′ di V 3E passanti per l’origine  x = −2t rispettivamente con forma parametrica y=t e forma im z = 2t   −2  plicita 2x − y − 2z = 0. Il vettore direttore della retta è 1 . Il 2   2 vettore normale al piano è −1. L’angolo tra il vettore direttore ◮ Senza fare calcoli, possiamo notare che −2 i vettori sono multipli l’uno dell’altro, quindi l’angolo tra essi è o 0 o π. della retta e il vettore normale al piano è ◮  \    Dt  t E    −2 2 −2 1 2 , 2 −1 −2 −9  1  −1 = arccos  

= arccos(−1) = π.  t  = arccos √ √

t 9· 9

−2 1 2 · 2 −1 −2 2 −2 Visto che l’angolo trovato è maggiore di π2 , l’angolo tra la retta W e la retta ortogonale al piano W ′ è π − π = 0, quindi l’angolo tra la retta W e il piano W ′ è π2 − 0 = π2 e quindi la retta è ortogonale al piano.

3 3. Consideriamo la retta W e il piano W ′ di V E passanti per l’o x = 3t rigine rispettivamente con forma parametrica y = −t e forma  z=t   3 implicita x + 2y − z = 0. Il vettore direttore della retta è −1. Il 1   1 vettore normale al piano è  2 . L’angolo tra il vettore direttore −1 della retta e il vettore normale al piano è  \    Dt  t E    3 1 3 −1 1 , 1 2 −1 0 π −1  2  = arccos 



 = arccos √ √ = .  

t

t

2 11 · 6 3 −1 1 · 1 2 −1



1 −1

c 2014 Gennaro Amendola

Versione 1.0

Lezione 37. Angoli e distanze

37–9

Visto che l’angolo trovato è minore o uguale a π2 , l’angolo tra la retta W e la retta ortogonale al piano W ′ è π2 , quindi l’angolo tra la retta W e il piano W ′ è π2 − π2 = 0 e quindi la retta è contenuta nel piano.

Angoli in spazi vettoriali reali Generalizzando quanto detto sopra, possiamo definire una nozione di angolo (e quindi di ortogonalità) anche per uno spazio vettoriale reale qualsiasi ◮. Per fare ciò, abbiamo bisogno di un prodotto scalare sullo spazio vettoriale reale, riferendoci ad esso per definire (e calcolare) gli angoli. Cambiando il prodotto scalare l’angolo può cambiare. Definizione 37.23. Sia V uno spazio vettoriale reale, e sia h·, ·i un prodotto scalare su V . Dati due vettori non nulli v e w in V , l’angolo tra essi è   hv, wi d vw := arccos . kvk · kwk d I due vettori sono detti ortogonali se v w = π2 , ossia hv, wi = 0.

Osservazione 37.24. La definizione precedente vale per ogni coppia di vettori non nulli, infatti la funzione arccos è applicata a un valore che è sempre tra −1 e 1, per la disuguaglianza di Cauchy-Schwarz ◮ : |hv, wi| 6 1. kvk · kwk Esempio 37.25. 1. Consideriamoil prodotto scalare standard in R4 .    1 1 1 0    L’angolo tra i due vettori X =  −1 e Y = −2 è 0 1  Dt  t E  1 1 −1 0 , 1 0 −2 1 d = arccos  

XY  

t

t

=

1 1 −1 0 · 1 0 −2 1 √ !   3 2 π = arccos √ √ = arccos = . 2 4 3 6

2 2. Consideriamo   R con  il prodotto scalare dell’Esempio 36.10. L’an1 1 golo tra e is ◮ 0 1  Dt  t E  1 0 , 1 1 d = arccos  

XY  

t

t

=

1 0 · 1 1   0 π = arccos √ √ = arccos(0) = , 2 1 4 quindi i due vettori colonna sono ortogonali (rispetto al prodotto scalare che stiamo considerando). Notiamo che l’angolo è astratto (relativo al prodotto scalare che stiamo considerando) infatti l’angolo effettivo tra i due vettori (pensati come vettori geometrici nel piano euclideo) è π4 ◮. c 2014 Gennaro Amendola

Versione 1.0

◮ E quindi nei sottospazi affini degli spazi vettoriali reali, generalizzando quanto vedremo nella sezione seguente.

Angolo tra vettori

Vettori ortogonali The function arccos is defined only for values between −1 and 1. ◮ Teorema 36.27.

◮ Per calcolare il prodotto scalare e la norla forma dei D vettori dobbiamo usare E t t x 1 x 2 , y1 y2 mula = x 1 y1 −

x1 y2 − x2 y1 + 5x2 y2 , perché non stiamo considerando il prodotto scalare standard.

◮ Esempio 37.9.

Lezione 37. Angoli e distanze

37.2

37–10

Angoli e distanze nel caso affine

In questa sezione generalizzeremo quanto detto sopra per i sottospazi vettoriali del piano e dello spazio euclideo ai sottospazi affini del piano e dello spazio euclideo. Questo è abbastanza facile perché la giacitura di un sottospazio affine è parallela al sottospazio affine stesso, e quindi possiamo usare i vettori direttori e i vettori normali alla giacitura degli spazi affini per studiare gli angoli (diedri) tra i sottospazi afffini. Tutti gli esempi sono ottenuti traslando le rette e i piani degli esempi di sopra. ◮ Osservazione 37.26. Consideriamo due rette r e r ′ di V 2E o V 3E con intersezione non vuota. ◮ Per trovare l’angolo tra esse, possiamo usare i vettori direttori, rispettivamente w e w ′ , infatti ognuno di essi ha la stessa direzione della retta corrispondente. ◮ Se chiamiamo α l’angolo tra w e w′ , abbiamo ( se α 6 π2 c′ = α . rr π − α se α > π2

La differenza rispetto a quanto abbiamo fatto sopra, è che ora consideriamo sottospazi affini invece di sottospazi vettoriali, e quindi essi possono non passare più per l’origine O.

◮ Questo è fatto per spiegare la relazione tra gli spazi affini e le loro giaciture.

Compare with Remark 37.14. ◮ Qui consideriamo solo rette. ◮ Lezione 33.

In particolare, le due rette r e r ′ sono ortogonali se e solo se

w, w′ = 0.

Consideriamo Se siamo nel piano eucli una loro forma parametrica. x = x0 + lt x = x′0 + l′ t deo, abbiamo e , e quindi y = y0 + mt y = y0′ + m′ t  Dt  t E    l m , l ′ m′ ′ + mm′ ll 

√ √ α = arccos  .  

t

t

= arccos l2 + m2 · l′2 + m′2

l m · l ′ m′

Se siamo nel piano euclideo, possiamo anche calcolare l’angolo tra i vettori direttori delle rette senza controllare che le rette si intersecano. Funziona tutto, eccetto per il caso in cui l’angolo è 0, infatti in questo caso le rette possono essere o coincidenti o parallele.    x = x0 + lt  x = x′0 + l′ t Se siamo nello spazio euclideo, abbiamo y = y0 + mt e y = y0′ + m′ t ,   z = z0 + nt z = z0′ + n′ t e quindi  Dt  t E    l m n , l ′ m′ n ′ ll′ + mm′ + nn′  



√ √ . α = arccos t  t  = arccos l2 + m2 + n2 · l′2 + m′2 + n′2

l m n · l ′ m′ n ′ Se siamo nello spazio euclideo, possiamo anche calcolare l’angolo tra i vettori direttori delle rette senza controllare che le rette si intersecano. Tuttavia, otteniamo un risultato solo nel caso in cui l’angolo è 0, infatti in questo caso le rette possono essere coincidenti o parallele.

Esempio 37.27. Consideriamo le due rette r e r ′ di  che si intersecano  x= 2+t x=4+t V 2E con forma parametrica rispettivamente e . y=3 y = −3 + t     1 1 I vettori direttori sono rispettivamente e . L’angolo tra i vettori 0 1 c 2014 Gennaro Amendola

Versione 1.0

Si confronti con l’Esempio 37.15.

Lezione 37. Angoli e distanze

direttori è

 Dt

37–11

 t E    1 0 , 1 1 1  



√ √ α = arccos t = arccos  t  = arccos 1· 2

1 0 · 1 1

√ ! 2 π = . 2 4

\ W ′ = α = π4 . Le rette r e r ′ non Visto che π4 6 π2 , abbiamo che W sono ortogonali perché l’angolo tra essi non è π2 , o equivalentemente il prodotto scalare standard tra i due vettori direttori non è 0. Definizione 37.28. Data una forma implicita di una retta in V 2E , ossia un  sottospazio affine di dimensione 1, ax+by+c = 0, il vettore geometrico  a è detto vettore di giacitura della retta o vettore normale alla retta. b Data una forma implicita di un piano in V 3E , ossia un sottospazio   a  affine di dimensione 2, ax + by + cz + d = 0, il vettore geometrico b  c è detto vettore di giacitura del piano o vettore normale al piano. Esempio 37.29. 1. Un vettore di  giacitura della retta r di V 2E con forma implicita 3x+  3 2y − 4 = 0 è . Se cambiamo la forma implicita, considerando 2 per esempio  −6x  − 4y + 8 = 0, otteniamo un altro vettore di −6 giacitura della retta r. −4

Vettore di giacitura/normale Si confronti con le Definizioni 37.17 e 33.29.

Si confronti con l’Esempio 37.18.

2. Un vettore di giacituradel  piano α di V 2E con forma implicita 1 x − y + 4z + 3 = 0 è −1. Se cambiamo la forma implicita, 4 considerando per esempio 2x   − 2y + 8z + 6 = 0, otteniamo un altro 2 vettore di giacitura −2 del piano α. 8

Osservazione 37.30. Il vettore di giacitura della retta r in V 2E (risp. un piano α in V 3E ) è ortogonale alla giacitura di r (risp. α) ◮, quindi può essere pensato essere ortogonale alla retta r (risp. al piano α) stessa, perché r (risp. α) è parallelo alla sua giacitura. Osservazione 37.31. Consideriamo due rette r e r ′ di V 2E con intersezione non vuota. ◮ Consideriamo una forma implicita di ciascuna di esse: rispettivamente ax + by + c = 0 e a′ x + b′ y + c′ =  0. Per  trovare  l’ana a′ golo tra loro, possiamo usare i vettori di giacitura, e , infatti b b′ ciascuno di essi alla retta corrispondente. ◮ Se chiamiamo β  è ortogonale  ′ a a l’angolo tra e , abbiamo b b′ ( se β 6 π2 ′ c= β rr . π − β se β > π2 c 2014 Gennaro Amendola

Versione 1.0

◮ Osservazione 37.16.

Si confronti con l’Osservazione 37.19. ◮ Qui consideriamo solo rette nel piano euclideo V 2E .

◮ Osservazione 37.30.

Lezione 37. Angoli e distanze

37–12

In particolare, le due rette r e r ′ sono ortogonali se e solo se D  t E t a b , a′ b′ = 0.

Possiamo anche calcolare l’angolo tra i vettori di giacitura delle rette senza controllare che le rette si intersecano. Funziona tutto, eccetto per il caso in cui l’angolo è 0, infatti in questo caso le rette possono essere o coincidenti o parallele. Analogamente, consideriamo due piani α e α′ di V 3E con intersezione non vuota. ◮ Consideriamo una forma implicita di ciascuno di essi: rispettivamente ax + by + cz + d = 0 e a′ x + b′ y + c′ z + d′ = 0. Per  trovare  a l’angolo diedro tra loro, possiamo usare i vettori di giacitura,  b  e c  ′ a  b′ , infatti ciascuno di essi è ortogonale al piano corrispondente. ◮ Se c′    ′ a a chiamiamo α l’angolo tra  b  e  b′ , abbiamo c c′ ( se β 6 π2 d′ = β . αα π − β se β > π2

◮ Qui consideriamo solo piani nello spazio euclideo V 3E .

◮ Osservazione 37.30.

In particolare, i due piani α e α′ sono ortogonali se e solo se D  t E t a b c , a′ b′ c′ = 0.

Possiamo anche calcolare l’angolo tra i vettori di giacitura dei piani senza controllare che i piani si intersecano. Funziona tutto, eccetto per il caso in cui l’angolo è 0, infatti in questo caso i piani possono essere o coincidenti o paralleli. Esempio 37.32. 1. Consideriamo le due rette r e r ′ di V 2E con forma implicita rispettivamente 2x − 3y −  1 =0 ex + 4y + 2 = 0. I vettori di giacitura sono 2 1 rispettivamente e . L’angolo tra i vettori di giacitura è −3 4  Dt  t E    \    1 4 2 −3 , −10 2 1  

√ √ = arccos .  

t

t

= arccos −3 4 13 · 17

2 −3 · 1 4

Si confronti con l’Esempio 37.20.

trovato è maggiore di π2 , l’angolo tra r e r ′ è Visto che l’angolo   −10 √ π − arccos √13· . Le rette r e r ′ non sono ortogonali perché 17 l’angolo tra esse non è π2 , o equivalentemente il prodotto scalare standard tra i due vettori di giacitura non è 0.

2. Consideriamo i due piani α e α′ di V 3E con forma implicita ri◮ spettivamente x + 3y − z − 2 = 0e 2x+ y  + 5z  = 0. I vettori 1 2 di giacitura sono rispettivamente  3  e 1. L’angolo tra i −1 5 c 2014 Gennaro Amendola

Versione 1.0

◮ Il termine noto può essere non nullo, ma anche 0 è permesso, come nel piano α′ .

Lezione 37. Angoli e distanze

37–13

vettori di giacitura è    \  Dt  t E    2 1 1 3 −1 , 2 1 5 π 0  3  1 = arccos  

√ √ = .  

t

t

= arccos 2 11 · 30

1 3 −1 · 2 1 5 5 −1 Visto che l’angolo trovato è minore o uguale a π2 , l’angolo diedro tra α e α′ è π2 . I piani α e α′ sono ortogonali perché l’angolo tra essi è π2 , o equivalentemente il prodotto scalare standard tra i due vettori normali è 0.

Osservazione 37.33. Consideriamo una retta r e un piano α di V 3E con intersezione non vuota. ◮ Consideriamo una forma  parametrica della  x = x0 + lt retta e una forma implicita del piano: rispettivamente y = y0 + mt t  z = z0 + nt e ax + by + cz + d = 0. Per trovare l’angolo tra  loro, possiamo usare  a il fatto che il vettore di giacitura del piano, che è  b , è ortogonale al c     l a piano. ◮ Se chiamiamo β l’angolo tra m e  b , abbiamo n c ( β if β 6 π2 π rc α= − . 2 π − β if β > π2

Si confronti con l’Osservazione 37.21. ◮ Qui consideriamo solo una retta e un piano nello spazio euclideo V 3E .

◮ Osservazione 37.30.

In particolare, la retta il piano α sono ortogonali se e solo se β = 0,  r e   l a ossia se e solo se m e  b  sono multipli uno dell’altro. Inoltre, la n c retta r è contenuta nel piano α se e solo se β = π2 , ossia se e solo se D  t E t l m n , a b c = 0.

Notiamo che questo è il contrario di ciò che succede per due rette o due piani: la ragione è che il vettore direttore è parallelo alla retta mentre il vettore di giacitura è ortogonale al piano.

Esempio 37.34. 3 1. Consideriamo la retta  r e il piano α di V E rispettivamente con  x=4+t forma parametrica y = 1 − 2t e forma implicita 2x+y−z−3 =  z = 3t   1 0. Il vettore direttore della retta è −2. Il vettore di giacitura 3   2 del piano è  1 . L’angolo tra il vettore direttore della retta e il −1

Compare with Example 37.22.

Possiamo anche calcolare l’angolo tra il vettore direttore della retta e il vettore di giacitura del piano senza controllare che la retta e il piano si intersecano. Funziona tutto, eccetto per il caso in cui l’angolo è 0, infatti in questo caso la retta può essere o contenuta nel piano o parallela ad esso.

c 2014 Gennaro Amendola

Versione 1.0

Lezione 37. Angoli e distanze

37–14

vettore di giacitura del piano è     Dt  t E    1\2 1 −2 3 , 2 1 −1 −3 −2  1  = arccos  

√ √ = arccos  t  = arccos

t 14 · 6

1 −2 3 · 2 1 −1 −1 3 

√ ! − 3 √ . 2 7

Visto che l’angolo trovato è maggiore di π2 , l’angolo tra r e α è √ ! √ !! π − 3 π − 3 √ √ − π − arccos = arccos − . 2 2 2 7 2 7

3 2. Consideriamo la retta  r e il piano α di V E rispettivamente con  x = 3 − 2t forma parametrica y = −1 + t e forma implicita 2x − y − 2z −  z = 3 + 2t   −2 4 = 0. Il vettore direttore della retta è  1 . Il vettore di 2   2 giacitura del piano è −1. L’angolo tra il vettore direttore della ◮ Senza fare calcoli, possiamo notare che −2 i vettori sono multipli l’uno dell’altro, quindi l’angolo tra essi è o 0 o π. ◮ retta e il vettore di giacitura del piano è E D  \  t    t     −2 2 −2 1 2 , 2 −1 −2 −9  1  −1 = arccos  

√ √ = arccos(−1) = π.  

t

t

= arccos 9 · 9 1 2 · 2 −1 −2 −2



2 −2

Visto che l’angolo trovato è maggiore di π2 , l’angolo tra r e α è π π 2 − (π − π) = 2 e quindi la retta è ortogonale al piano.

3 3. Consideriamo la retta  r e il piano α di V E rispettivamente con  x = −1 + 3t forma parametrica y = −t e forma implicita x + 2y −  z =2+t   3  z − 3 = 0. Il vettore direttore della retta è −1. Il vettore di 1   1 giacitura del piano è  2 . L’angolo tra il vettore direttore della −1 retta e il vettore di giacitura del piano è  \    Dt  t E    3 1 3 −1 1 , 1 2 −1 0 π −1  2  = arccos  

√ √ = arccos = .  

t

t

2 11 · 6 3 −1 1 · 1 2 −1



1 −1

Visto che l’angolo trovato è minore o uguale a π2 , l’angolo tra r e α è π2 − π2 = 0 e quindi la retta è o contenuta nel piano o parallela ad esso.

Definizione 37.35. La distanza tra un punto P e un insieme I nel piano o nello spazio è la più piccola distanza tra P e un punto di I, ed è indicata con dist (P, I) . c 2014 Gennaro Amendola

Versione 1.0

Distanza tra un punto e un insieme

Lezione 37. Angoli e distanze

37–15

La distanza tra due insiemi I1 e I2 nel piano o nello spazio è la più piccola distanza tra un punto di I1 e un punto di I2 , ed è indicata con

Distanza tra due insiemi

dist (I1 , I2 ) .

Osservazione 37.36. Queste due definizioni non sono preciso, perché il minimo può non essere raggiunto, e quindi avremmo dovuto usare l’“estremo inferiore delle distanze” invece della “distanza più piccola”. Tuttavia, per ciò di cui avremo bisogno, la nostra definizione funziona. Il lettore interessato può vedere https://it.wikipedia.org/wiki/Spazio_metrico#Distanza_tra_punti_e_insiemi_e_tra_insiemi per un chiarimento.   x0 Osservazione 37.37. La distanza tra un punto P = e una retta Distanza punto-retta nel piano y0 r con forma implicita ax + by + c = 0 nel piano euclideo V 2E è |ax0 + by0 + c| √ . a2 + b2 Non dimostreremo questo fatto, anche se non è difficile. Il punto P appartiene a r se e solo se dist (P,r) = 0. x0 La distanza tra un punto P =  y0  e un piano α con forma implicita z0 ax + by + cz + d = 0 nello spazio euclideo V 3E è dist (P, r) =

|ax0 + by0 + cz0 + d| √ . a2 + b2 + c2 Non dimostreremo questo fatto, anche se non è difficile. Il punto P appartiene ad α se e solo se dist (P, α) = 0.   0 Esempio 37.38. 1. La distanza tra il punto P = e la retta r 2 con forma implicita 3x − 4y + 3 = 0 nel piano euclideo V 2E è dist (P, α) =

dist (P, r) =

|−5| |3 · 0 − 4 · 2 + 3| p = = 1. 5 32 + (−4)2

Il punto non appartiene alla retta, infatti la distanza non è 0.   2 2. La distanza tra il punto P =  1  e il piano α con forma −3 implicita 2x − 2y + z + 1 = 0 nello spazio euclideo V 3E è dist (P, α) =

|2 · 2 − 2 · 1 + (−3) + 1| |0| p = = 0. 2 2 2 3 2 + (−2) + 1

Il punto appartiene al piano, infatti la distanza è 0.

c 2014 Gennaro Amendola

Versione 1.0

Distanza punto-piano nello spazio

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

#corso# INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA #insegnamento# 37/S1 #lezione# Angoli e distanze #titolo# 1 #attività#

Sessione di Studio 37.1

Angoli e distanze

Lezione 37. Angoli e distanze

37–16

Sessione di Studio 37.1 Esercizio 37.1. Trova la retta ortogonale  alla  retta con forma implicita −1 x + 3y − 2 = 0 e passante per il punto in V 2E . 2

Soluzione. Cerchiamo una forma parametrica della retta. Un vettore direttore è il vettore   di giacitura della retta con forma implicita  x + 3y − 1 −1 2 = 0, che è . Come punto base possiamo scegliere . Una 3 2  x = −1 + t forma parametrica della retta che stiamo cercando è . y = 2 + 3t Esercizio 37.2. Trova la retta ortogonale alla retta r con forma  im 1 x+y+z+1=0  1  in plicita e passante per il punto P = 3y + z + 5 = 0 −2 3 V E. Trova la distanza tra il punto P e la retta r.   x = 4 + 2α Soluzione. Una forma parametrica della retta r è y=α con α ∈  z = −5 − 3α   4 + 2α . La retta sα per i R, quindi un punto generico di r è Qα =  α −5 − 3α ◮ Il parametro della forma parametrica della due punti P e Qα ha forma parametrica ◮    retta sα è t.  x = 1 + (4 + 2α) − 1 t  x = 1 + (2α + 3)t y = 1 + (α − 1)t con t ∈ R.  con t ∈ R, ossia  y = 1 + (α − 1)t  z = −2 + (−5 − 3α) + 2 t z = −2 + (−3 − 3α)t   2α + 3 Il suo vettore direttore è  α − 1 , che è ortogonale ad r se −3 − 3α D  t E t 2α + 3 α − 1 −3 − 3α , 2 1 −3 = 0, ossia se 2(2α + 3) + (α − 1) − 3(−3 − 3α) = 0. Quindi, otteniamo α = −1, e quindi laretta ortogonale ad r passante per P è s−1 , che ha  x =1+t forma parametrica y = 1 − 2t .  z = −2 Per trovare la distanza  dist  (P, r) usiamo il punto di intersezione di 2 r ed s−1 , che è Q−1 = −1, quindi la distanza è −2 p √ dist (P, r) = dist (P, Q−1 ) = (2 − 1)2 + (−1 − 1)2 + (−2 − (−2))2 = 5.

c 2014 Gennaro Amendola

Versione 1.0

Lezione 37. Angoli e distanze

37–17

Esercizio 37.3. Trova la  distanza tra le rette sghembe r ed s con forma  2x − y − 2 = 0 x − 2y − 3 = 0 implicita rispettivamente e in x+z−1=0 x+y−z−4=0 V 3E . Soluzione. Cerchiamo il piano α parallelo s. Un  adr econtenente  1 2 vettore direttore di r ed s è rispettivamente  2  e 1. ◮ Come punto −1 3   3  0 . base possiamo scegliere un qualsiasi punto di s, per esempio −1   x = 3 + t + 2s y = 2t + s Una forma parametrica del piano è , quindi forma  z = −1 − t + 3s implicita del piano è 7x − 5y − 3z − 24 = 0. La distanza tra r ed s è uguale alla distanza tra la retta r e il piano α, che è uguale alla distanza tra il piano  αe un qualsiasi punto di r. ◮ 0 Come punto di r possiamo scegliere P = −2. Quindi, abbiamo 1

◮ Abbiamo visto come trovare il vettore direttore di una retta nella Lezione 33.

◮ Perché α ed r sono paralleli.

√ |7 · 0 − 5 · (−2) − 3 · 1 − 24| 17 17 83 p dist (r, s) = dist (r, α) = dist (P, α) = =√ = . 83 83 72 + (−5)2 + (−3)2

c 2014 Gennaro Amendola

Versione 1.0

Corso di Laurea: Insegnamento: Lezione n°: Titolo: Attività n°:

#corso# INGEGNERIA INFORMATICA E DELL'AUTOMAZIONE (D.M. 270/04) COMPLEMENTI DI MATEMATICA #insegnamento# 37/S2 #lezione# Angoli e distanze #titolo# 1 #attività#

Sessione di Studio 37.2

Angoli e distanze

Lezione 37. Angoli e distanze

37–18

Sessione di Studio 37.2 Esercizio 37.4. Trova l’angolo tra le seguenti coppie di vettori rispetto al prodotto scalare standard nel corrispondente spazio vettoriale. √    1 3 di R2 . e √ 1. 3 1     3 2 −1  di R3 . 2. 1 e √ 0 10     −1 1 2  1  4    3.  0 e  2  di R . 1 0 Esercizio 37.5. Quali delle seguenti coppie di vettori sono ortogonali rispetto al prodotto scalare standard nel corrispondente spazio vettoriale?     3 2 1. e di R2 . −6 1     2 1 2. e di R2 . −3 1     −2 1 3.  3  e 6 di R3 . −5 4     2 1    4. 3 e 6 di R3 . −5 4     2 1 −3  2  4    5.   1  e −5 di R . 4 2     1 4 −1 −5 4    6.   0  e  6  di R . 3 −3

Esercizio 37.6. Trova