L’immagine digitale in diagnostica per immagini: Tecniche e applicazioni 978-88-470-5363-2, 978-88-470-5364-9 [PDF]

Il volume illustra i fondamenti necessari per acquisire, elaborare e valutare le immagini radiologiche con un approccio

146 109 23MB

Italian Pages XIII, 209 pagg. [220] Year 2013

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :

Content:
Front Matter....Pages i-xiii
Rappresentazione digitale di segnali....Pages 1-40
Luce, immagini e visione....Pages 41-67
Introduzione all’immagine digitale....Pages 69-94
Elaborazione di immagini....Pages 95-152
Elaborazioni intrinseche alle metodiche....Pages 153-167
La memorizzazione delle immagini digitali....Pages 169-200
Back Matter....Pages 201-209
Papiere empfehlen

L’immagine digitale in diagnostica per immagini: Tecniche e applicazioni
 978-88-470-5363-2, 978-88-470-5364-9 [PDF]

  • 0 0 0
  • Gefällt Ihnen dieses papier und der download? Sie können Ihre eigene PDF-Datei in wenigen Minuten kostenlos online veröffentlichen! Anmelden
Datei wird geladen, bitte warten...
Zitiervorschau

Mario Coriasco Osvaldo Rampado Nello Balossino Sergio Rabellino

ABC

&

Tecniche e applicazioni

Imaging formazione

L'immagine digitale in diagnostica per immagini

L’immagine digitale in diagnostica per immagini

Mario Coriasco · Osvaldo Rampado · Nello Balossino · Sergio Rabellino

L’immagine digitale in diagnostica per immagini Tecniche e applicazioni

Presentazione a cura di Francesco Sicurello Luisa Begnozzi Alessandro Beux

Mario Coriasco Dipartimento di Neuroscienze Università di Torino

Osvaldo Rampado S. C. Fisica Sanitaria A.O. Città della Salute e della Scienza Torino

Nello Balossino Dipartimento di Informatica Università di Torino

Sergio Rabellino Dipartimento di Informatica Università di Torino

I lettori possono accedere a un software gratuito (http://eidos.di.unito.it/eidoslab.php), un vero e proprio laboratorio di elaborazione di immagini con il quale esercitarsi a riprodurre gli esempi di elaborazione illustrati. In copertina: una elaborazione grafica agli pseudo-colori del modulo della trasformata di Fourier di un'immagine digitale (Mario Coriasco, Sergio Rabellino).

ISSN 2239-2017 ISBN 978-88-470-5363-2

ISBN 978-88-470-5364-9 (eBook)

DOI 10.1007/978-88-470-5364-9 © Springer-Verlag Italia 2013 Quest’opera è protetta dalla legge sul diritto d’autore e la sua riproduzione anche parziale è ammessa esclusivamente nei limiti della stessa. Tutti i diritti, in particolare i diritti di traduzione, ristampa, riutilizzo di illustrazioni, recitazione, trasmissione radiotelevisiva, riproduzione su microfilm o altri supporti, inclusione in database o software, adattamento elettronico, o con altri mezzi oggi conosciuti o sviluppati in futuro, rimangono riservati. Sono esclusi brevi stralci utilizzati a fini didattici e materiale fornito ad uso esclusivo dell’acquirente dell’opera per utilizzazione su computer. I permessi di riproduzione devono essere autorizzati da Springer e possono essere richiesti attraverso RightsLink (Copyright Clearance Center). La violazione delle norme comporta le sanzioni previste dalla legge. Le fotocopie per uso personale possono essere effettuate nei limiti del 15% di ciascun volume dietro pagamento alla SIAE del compenso previsto dalla legge, mentre quelle per finalità di carattere professionale, economico o commerciale possono essere effettuate a seguito di specifica autorizzazione rilasciata da CLEARedi, Centro Licenze e Autorizzazioni per le Riproduzioni Editoriali, e-mail [email protected] e sito web www.clearedi.org. L’utilizzo in questa pubblicazione di denominazioni generiche, nomi commerciali, marchi registrati, ecc. anche se non specificatamente identificati, non implica che tali denominazioni o marchi non siano protetti dalle relative leggi e regolamenti. Le informazioni contenute nel libro sono da ritenersi veritiere ed esatte al momento della pubblicazione; tuttavia, gli autori, i curatori e l’editore declinano ogni responsabilità legale per qualsiasi involontario errore od omissione. L’editore non può quindi fornire alcuna garanzia circa i contenuti dell’opera.

9 8 7 6 5 4 3 2 1 Layout copertina: Ikona S.r.l., Milano Impaginazione: C & G di Cerri e Galassi, Cremona Stampa: Esperia S.r.l., Lavis (TN)

Springer-Verlag Italia S.r.l., Via Decembrio 28, I-20137 Milano Springer fa parte di Springer Science+Business Media (www.springer.com)

Presentazione

Da sempre i processi decisionali umani, necessari a comprendere fenomeni naturali e sociali o a risolvere i problemi connessi, necessitano di elaborazione, analisi e valutazione di parametri, variabili ed elementi informativi utili al caso; questi ultimi si presentano sotto svariate forme (testi, dati, grafici, segnali, immagini, suoni). L’informazione da cui trarre supporto alle decisioni, oltre a presentarsi in forme varie, può essere registrata su diversi tipi di documenti (fisici, cartacei, elettronici) che possono contenere: testi scritti per esprimere concetti e descrivere esperienze, dati numerici o alfanumerici come risultati di misurazioni o di codifiche, segnali acustici e tracciati, immagini, forme pittoriche ed eidetiche che raffigurano o fotografano uno o più aspetti della realtà osservata. Ciò storicamente è sempre avvenuto, con metodologie, tecnologie e strumenti diversi e sempre più evoluti, in quasi tutti i campi di studio e dell’osservazione umana: dalle scienze naturali pure e applicate a quelle economiche e sociali: dalla fisica alla chimica, dalla biologia alla medicina, dall’economia alla sociologia, dalla meteorologia alla sismologia, e così via. In campo biomedico e sanitario, a cui gli autori del libro principalmente si riferiscono, i servizi diagnostici erogati ai pazienti da ambulatori specialistici, ospedali e centri clinici direttamente o anche a distanza (con sistemi di telemedicina) sono ormai basati su segnali e immagini di tipo digitale e il loro trattamento automatico costituisce un valido apporto al decision-making dei medici e degli operatori sanitari. Nelle diverse strutture diagnostiche, come ad esempio le divisioni di radiologia, sono presenti ormai sofisticate e complesse apparecchiature biomedicali, strumentazioni e biodevices innovativi ed evoluti che consentono di “osservare” approfonditamente e raccogliere informazioni sempre più precise per la definizione di un completo quadro clinico del paziente. La diagnostica per immagini, con il suo impatto visivo, fornisce un notevole aiuto al processo diagnostico-terapeutico nella quotidiana attività di cura e assistenza sanitaria, specialmente nei campi medici più complessi come quelli dei tumori o delle patologie neurologiche, ma anche in cardiologia, ortopedia e nel monitoraggio di malattie croniche. L’obiettivo è sempre quello di arrivare in tempi rapidi a una corretta diagnosi, per esempio consentendo nelle malattie oncologiche di individuare con maggior precisione la sede delle alterazioni e la loro natura, riducendo così i margini di errore nelle terapie. v

vi

Presentazione

La diagnostica per immagini, in particolare nel settore radiologico, fino a non molti anni fa dominata da strumentazioni di tipo analogico, ha subito un cambiamento profondo, grazie all’introduzione di nuovi apparati tecnologici (quali NMR, TAC, PET, OCT, retinografi, ecografi, angiografi, mammografi, ecc.) che forniscono immagini in formato digitale. Il passaggio dall’analogico al digitale, non solo in radiologia ma anche in altri settori clinico-diagnostici come, per esempio, in cardiologia, oftalmologia, neurofisiologia, anatomia patologia, offre all’operatore sanitario tutti i vantaggi del trattamento automatico delle immagini (acquisizione, ricostruzione, archiviazione, trasmissione, analisi) come rapidità di elaborazione, economicità e maggiore efficacia. In questo contesto si stanno sempre più diffondendo sistemi informatici di archiviazione e comunicazione di immagini come il Picture Archiving and Communication System (PACS), che vengono integrati nei sistemi e sottosistemi informativi sanitari (Sistema Informativo Ospedaliero, SIO; Radiological Information System, RIS; ecc.). Qui assumono notevole rilevanza e importanza i sistemi di interoperabilità, gli standard informatici e di comunicazione, per far sì che ci possa essere indipendenza tecnologica dalle modalità o dagli strumenti che producono segnali o immagini. Per queste ultime, per esempio, vi è uno standard ormai affermato denominato Digital Imaging and Communication in Medicine (DICOM), usato per l’archiviazione e lo scambio di immagini biomediche, specialmente in campo radiologico. La messa in opera e la gestione dei sistemi di diagnostica per immagini richiedono anche un’adeguata organizzazione e la disponibilità di specifiche figure professionali che, assieme alle competenze tipiche degli operatori e tecnici sanitari, abbiano una conoscenza di informatica e di tecniche di trattamento e gestione delle immagini e siano in grado di comprendere il funzionamento di sistemi informatici complessi e multimediali. In tal senso, una nuova figura tecnico-professionale può essere quella di Amministratore di Sistemi Informatici in Diagnostica per Immagini, che oggi viene formata con livelli di preparazione adeguata come corsi di laurea o master di 1° e 2° livello. Nella stesura del testo gli autori si sono ispirati ai temi sopra accennati e hanno sfruttato la loro esperienza interdisciplinare in ambito eidetico. Ne è nato così un volume che descrive fondamenti utili per acquisire, elaborare e valutare le immagini radiologiche con un approccio interdisciplinare, che coniuga contributi tecnico-scientifici della fisica, informatica, biomedicina e radiologia: medici, tecnici di radiologia, ricercatori, tecnologi e professionisti dell’informatica medica, della fisica sanitaria o della telemedicina e tutti gli operatori, in genere, del campo biomedico e sanitario vi troveranno un valido riferimento conoscitivo e didattico. Maggio 2013

Prof. Francesco Sicurello Docente di Informatica Medica e Telemedicina, Università di Milano Bicocca; Presidente Istituto Internazionale di TeleMedicina (IITM)/ Associazione Italiana di Informatica Medica e Telemedicina (@ITIM)

Presentazione

Un testo utile. Questa è la sensazione che si ha affrontando la lettura di questo libro. Utile e chiaro. Di questo libro, che si propone di analizzare i principali metodi di elaborazione delle immagini digitali utilizzando un linguaggio semplice e, in particolare, un elevato numero di esempi illustrativi, si apprezzano molteplici aspetti: la scientificità, la ricchezza e la capillarità dei contenuti, la chiarezza ma soprattutto l’intento, che è quello di sensibilizzare gli operatori coinvolti nel processo di acquisizione e formazione dell’immagine radiologica ad appropriarsi di conoscenze scientifiche idonee, utili alla corretta gestione del processing delle immagini radiologiche in ambito digitale. L’obiettivo è, infatti, quello di fornire al lettore le chiavi per analizzare le funzioni delle piattaforme informatiche che utilizzerà nella pratica quotidiana. Il rapido e diffuso passaggio dalla tecnologia analogica a quella digitale ha comportato un’acquisizione e un uso a volte inconsapevole delle nuove tecnologie e delle relative potenzialità, in particolare per quanto riguarda quei processi non direttamente controllabili dall’operatore e genericamente gestiti dalle ditte, primo fra tutti il processo di elaborazione dell’immagine, spesso visto come un’inaccessibile scatola nera. Tra le tante innovazioni correlate alla diffusione massiccia di immagini digitali in radiodiagnostica, l’introduzione di elaborazioni intrinseche che agiscono senza il diretto controllo degli operatori, se da un lato ha favorito un indiscutibile miglioramento dell’informazione ottenibile, dall’altro ha portato alla perdita di consapevolezza sull’influenza di alcuni passi del processo di formazione dell’immagine finale. Gli aspetti tecnici operativi e le prestazioni tecnologiche delle apparecchiature hanno ancora un ruolo importante, ma sempre più spesso le opzioni disponibili e le scelte effettuate relativamente al processing sono determinanti per il risultato ottenibile. Impadronirsi di conoscenze in tale ambito permette all’operatore non solo di essere consapevole del significato e dell’importanza del processing nella formazione di un’immagine radiografica adeguata, ma di essere quotidianamente parte attiva nel processo di ottimizzazione dell’esame. Un aspetto importante illustrato nella trattazione e affrontato anche nei numerosi esercizi proposti è quello della quantificazione dei parametri caratteristici e di qualità dell’immagine, che sottolinea l’importanza di sfruttare la possibilità offerta dalla tecnolovii

viii

Presentazione

gia digitale di utilizzare un approccio quantitativo sia nella valutazione delle prestazioni che nell’analisi di particolari informazioni diagnostiche. Questo libro rappresenta, pertanto, un valido testo di formazione per gli operatori del settore, che, grazie all’ausilio di test presenti alla fine di ciascun capitolo, potranno facilmente valutare l’effettiva preparazione raggiunta nei diversi ambiti affrontati. Tutte le figure professionali coinvolte sia nelle fasi di acquisizione di una nuova tecnologia che nella routine operativa dovrebbero prestare, quindi, molta attenzione a questa realtà, nell’ottica dell’ottimizzazione delle risorse e delle prestazioni mediche. In particolare, il testo rappresenta un importante riferimento per i Fisici medici, dallo specializzando al dirigente: il diretto coinvolgimento nelle fasi di accettazione e controllo delle apparecchiature e, più in generale, nei programmi di assicurazione di qualità del Fisico medico non può, infatti, prescindere dalla conoscenza corretta e completa della tecnologia con cui si confronta. Buona lettura! Maggio 2013

Luisa Begnozzi Presidente AIFM [email protected]

Presentazione

Tra le molte considerazioni che sarebbe possibile fare al termine della lettura di questo testo, quella che mi sovviene più spontanea è, apparentemente, la più distante dai temi trattati nel volume. Essa non attiene ai contenuti, bensì al metodo col quale gli autori li hanno raccolti, organizzati e presentati: una cooperazione multidisciplinare in grado di elaborare un testo didatticamente efficace. L’ordine di trattazione degli argomenti, la loro esaustività e la chiarezza della loro esposizione sono testimonianze della competenza degli autori, sono le componenti tecniche che rendono il testo di qualità. Ma ciò che, a mio avviso, lo rende particolarmente interessante è la componente relazionale; il valore aggiunto di questo volume è rappresentato dall’interazione coordinata e finalizzata tra soggetti portatori di competenze diverse, spesso complementari. Più che i contenuti, dunque, le persone che vi hanno lavorato e il modo in cui l’hanno fatto. Forse influenzato dalla mia professione, posso affermare che la differenza tra questo e altri testi sullo stesso tema sia simile a quella esistente tra un’indagine di radiologia convenzionale e una tomografia computerizzata. La prima fornisce una rappresentazione a due dimensioni del segmento corporeo indagato, sfruttando i contributi provenienti da un solo punta di vista alla volta; la seconda consente una rappresentazione tridimensionale, poiché riunisce informazioni acquisite da punti di vista diversi. Il testo è la sintesi dei contributi provenienti da informatici, fisici medici e tecnici di radiologia: questo, oltre a renderlo più chiaro e completo, offre al lettore la possibilità di entrare dentro l’argomento, andando oltre la sola conoscenza di superficie alla quale è limitato chi può solo osservarlo da fuori. Tale visione “interna” consente al lettore di acquisire non solo le nozioni necessarie a utilizzare in modo ordinario le tecnologie digitali di diagnostica per immagini, ma anche quelle utili a dialogare con esse, al fine di sfruttarne appieno le potenzialità, per migliorare l’accuratezza delle immagini da esse prodotte, migliorare l’efficienza delle attività e, se possibile, contenere la dose alla persona. Un dialogo costruttivo tra la tecnologia e l’operatore che la utilizza è possibile solo se il secondo conosce il linguaggio e le modalità di pensiero e di azione della prima. Questo testo garantisce entrambe, rendendo il lettore adeguatamente competente e consapevole. ix

x

Presentazione

Infine, ritengo doveroso riconoscere una particolare rilevanza all’uso esperto che gli autori fanno dell’iconografia, agevolando il lettore nella comprensione di ciò che sta prima, dentro e dietro la formazione, la post-elaborazione e l’archiviazione delle immagini digitali. Maggio 2013

Alessandro Beux Presidente FNCPTSRM [email protected]

Indice

1

Rappresentazione digitale di segnali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1 Caratteristiche dei segnali e dei sistemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Segnali continui e discreti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3 Il trattamento dell’informazione digitale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.1 Il sistema di acquisizione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.2 Il sistema di elaborazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.3 Il sistema di distribuzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4 Grandezze analogiche e digitali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4.1 Strumenti di misura analogici e digitali . . . . . . . . . . . . . . . . . . . . . . . . 1.4.2 La risoluzione di una misura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.5 Il trasduttore . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.6 Il sistema campionatore . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.6.1 Il teorema di Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.6.2 Il teorema del campionamento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.6.3 Il fenomeno aliasing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.7 Il sistema quantizzatore . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.7.1 Il convertitore A/D: campionamento e quantizzazione . . . . . . . . . . . . . 1.8 L’immagine come distribuzione di energia . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.9 Cenni sull’architettura degli elaboratori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.9.1 L’informazione binaria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Letture consigliate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1 2 3 4 4 5 6 6 9 10 11 12 12 16 17 19 21 23 25 29 33 34

2

Luce, immagini e visione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 La luce . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Il principio di indeterminazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4 Il raggruppamento percettivo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5 Il ricevitore occhio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.6 Proprietà della visione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.7 Il colore . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.8 Considerazioni finali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Letture consigliate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

41 41 42 46 49 52 56 61 63 63 65

xi

xii

Indice 3

Introduzione all’immagine digitale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1 Discretizzazione spaziale e quantizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 L’istogramma dei livelli di grigio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3 Le periferiche di visualizzazione e stampa . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4 Il cambio delle dimensioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5 La valutazione della qualità delle immagini digitali . . . . . . . . . . . . . . . . . . . . . 3.5.1 Risoluzione spaziale e funzione di trasferimento della modulazione . 3.5.2 Rumore: quantificazione e analisi spettrale . . . . . . . . . . . . . . . . . . . . . 3.5.3 Rapporto contrasto-rumore ed efficienza quantica . . . . . . . . . . . . . . . . 3.6 Considerazioni finali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Letture consigliate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

69 69 75 77 79 80 81 83 84 86 87 88

4

Elaborazione di immagini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1 Tecniche di elaborazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2 Distanze fra pixel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3 Elaborazioni puntuali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3.1 Look-Up Table . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3.2 Tecnica degli pseudo colori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3.3 Le operazioni algebriche tra immagini . . . . . . . . . . . . . . . . . . . . . . . . . 4.3.4 Gli operatori logici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4 Elaborazioni locali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4.1 I filtri convolutivi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4.2 Rilevazione ed evidenziazione dei bordi . . . . . . . . . . . . . . . . . . . . . . . . 4.4.3 La riduzione del rumore e lo smoothing . . . . . . . . . . . . . . . . . . . . . . . . 4.4.4 Il filtro mediano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4.5 L’unsharp masking . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4.6 Gli operatori morfologici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.5 Elaborazioni globali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.5.1 L’istogramma e il miglioramento del contrasto . . . . . . . . . . . . . . . . . . 4.6 Elaborazioni nel dominio delle frequenze spaziali . . . . . . . . . . . . . . . . . . . . . . 4.6.1 La frequenza spaziale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.6.2 La trasformata di Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.6.3 Proprietà dell’immagine nel dominio trasformato . . . . . . . . . . . . . . . . 4.6.4 Le tecniche di filtraggio nel dominio trasformato . . . . . . . . . . . . . . . . 4.6.5 Applicazioni dei filtri in frequenza alle immagini . . . . . . . . . . . . . . . . 4.6.6 Filtro ideale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.6.7 Filtro Butterworth . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.6.8 Filtro esponenziale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.6.9 Filtro trapezoidale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.7 Ripristino di qualità dell’immagine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.8 I software per l’elaborazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.9 Considerazioni finali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Letture consigliate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

95 95 96 99 99 107 107 110 111 111 113 116 117 119 120 122 122 128 128 129 131 132 133 134 135 136 137 139 141 143 144 145

5

Elaborazioni intrinseche alle metodiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

153 153

Indice

xiii 5.2 5.3 5.4 5.5

6

Radiologia digitale proiettiva . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Mammografia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Angioradiologia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Tomografia computerizzata . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Letture consigliate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

154 158 159 162 165 166

La memorizzazione delle immagini digitali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.1 I formati di file per la memorizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2 La compressione delle immagini digitali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2.1 La valutazione della qualità della compressione: il PSNR . . . . . . . . . . 6.3 Tecniche di compressione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3.1 Packing Bits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3.2 L’algoritmo RLE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3.3 La perdita di informazione sul colore . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3.4 L’algoritmo di codifica di Huffman . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3.5 La compressione nello spazio trasformato . . . . . . . . . . . . . . . . . . . . . . 6.4 Panoramica dei formati di file per immagini digitali . . . . . . . . . . . . . . . . . . . . 6.4.1 Requisiti principali dei formati di immagini medicali . . . . . . . . . . . . . 6.4.2 Lo standard DICOM/3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.4.3 Lo standard di formato JPEG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.4.4 Lo standard JPEG 2000 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.4.5 Lo standard di formato PNG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.5 La trasmissione delle immagini digitali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.5.1 La sicurezza delle immagini: le tecniche di watermarking . . . . . . . . . 6.6 Considerazioni finali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Sitografia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

169 170 171 172 173 173 174 174 175 177 178 180 180 186 189 192 193 193 196 196 197

Soluzioni esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

201

Indice analitico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

205

Rappresentazione digitale di segnali

1

Indice dei contenuti 1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.8 1.9

Caratteristiche dei segnali e dei sistemi Segnali continui e discreti Il trattamento dell’informazione digitale Grandezze analogiche e digitali Il trasduttore Il sistema campionatore Il sistema quantizzatore L’immagine come distribuzione di energia Cenni sull’architettura degli elaboratori Esercizi

Per controllare la temperatura in un ambiente, mantenendola entro limiti prefissati, è sufficiente paragonare la tensione proveniente dal sensore di temperatura con una tensione utilizzata come riferimento, comandando opportunamente il dispositivo preposto al riscaldamento; si tratta di un segnale analogico che varia con continuità. Lo spostamento dell’interesse verso i segnali digitali (detti anche numerici), che variano per intervalli, è spinto dalla diffusione capillare di apparecchiature come i calcolatori, che hanno determinato un sempre maggiore orientamento verso le tecnologie digitali, rendendo possibili tecniche di elaborazione e risultati non altrimenti ottenibili in ambito analogico. La possibilità di elaborare e trasferire in forma digitale l’informazione può avvantaggiarsi di caratteristiche molto superiori di stabilità e resistenza al rumore rispetto ai segnali elaborati e trasmessi in forma analogica rendendoli, di conseguenza, anche meno sensibili alle derive termiche dei circuiti elettronici coinvolti nel loro trattamento. Anche nell’ambito delle immagini, la digitalizzazione ha aperto possibilità di elaborazione e di restauro della qualità impossibili prima del suo impiego. Requisito necessario per comprendere gli aspetti peculiari coinvolti nel passaggio dall’immagine analogica a quella digitale sono i concetti legati alla digitalizzazione, alla L’immagine digitale in diagnostica per immagini. Mario Coriasco, Osvaldo Rampado, Nello Balossino, Sergio Rabellino DOI: 10.1007/978-88-470-5364-9_1 © Springer-Verlag Italia 2013

1

2

M. Coriasco et al.

caratterizzazione dei fenomeni e loro distinzione in continui e discreti, ai concetti di campionamento, all’informazione binaria e all’architettura dei calcolatori. Nel presente capitolo si intendono richiamare alcuni elementi base di tali argomenti, rimandando alla ricca letteratura specifica eventuali esigenze di approfondimento.

1.1 Caratteristiche dei segnali e dei sistemi Nell’affrontare la trattazione di un argomento sulle immagini digitali è utile illustrare, pur sommariamente, i concetti di segnale e sistema, per l’importanza che essi assumono nei vari ambiti della tecnologia e della scienza, come la progettazione di circuiti per le telecomunicazioni, i processi industriali o, in particolare, in ambito sanitario e nell’ingegneria biomedica. Nella diagnostica medica, la natura dei segnali e dei sistemi coinvolti è molto varia, potendo spaziare dalle onde elettromagnetiche della risonanza magnetica (RM) alle radiazioni ionizzanti della tomografia computerizzata (TC) e della radiologia, dalla luce emessa da un cristallo scintillatore in medicina nucleare agli ultrasuoni delle tecniche ecografiche. Tuttavia, vi sono due caratteristiche comuni: i loro segnali, in funzione di una variabile spaziale o temporale, portano informazioni riguardanti lo stato di qualche particolare fenomeno fisico dal quale provengono. I sistemi che li caratterizzano sono in grado di rispondere alle sollecitazioni prodotte dai segnali in ingresso manifestando in uscita un determinato comportamento (ad esempio, la generazione di un altro segnale). Un esempio di segnale è dato da grandezze elettriche come tensione o corrente fornite a un circuito elettrico che, a sua volta, è un esempio di sistema. In TC i detettori, sollecitati dalla radiazione, producono in uscita una grandezza elettrica che costituisce il segnale, mentre l’apparato necessario per la rivelazione è il sistema. In RM la radiofrequenza proveniente dai tessuti stimolati del paziente determina il segnale, mentre lo scanner e l’insieme dei circuiti atti a rivelare e trattare opportunamente tali onde elettromagnetiche per produrre un’immagine costituiscono il sistema. Solitamente, l’esperienza suggerisce che il segnale sia una grandezza fisica variabile nel tempo: molti segnali incontrati nella vita quotidiana appartengono a questo tipo, come i segnali corrispondenti alla voce umana nell’ambito della radio-telefonia, oppure i suoni e la musica riproducibili su un lettore multimediale. Anche in ambito medico molti tra i segnali sono classificabili come temporali, per esempio quelli di un elettrocardiogramma o di un elettroencefalogramma. Tuttavia, il tempo è solo una tra le variabili indipendenti in funzione della quale può variare una grandezza fisica. Per comprendere come i concetti di segnale e informazione siano applicabili anche alle immagini, tale definizione va estesa: in generale, un segnale è una grandezza fisica che può variare nel tempo, nello spazio o in una loro combinazione. Nel seguito del testo si potrà osservare che, nel caso delle immagini, la variabile può essere un vettore di coordinate cartesiane. In tali casi si parla di segnale di tipo spaziale. Si può quindi esprimere un segnale in funzione di una certa variabile, rappresentandolo matematicamente come u  f ( v苳), dove:

1 Rappresentazione digitale di segnali

3

• u è la variabile dipendente che esprime i valori della grandezza fisica considerata; • v苳 è la variabile indipendente che esprime un vettore di coordinate (in genere temporali e/o spaziali); • f è la relazione che associa a ogni valore di v苳 il corrispondente valore della grandezza fisica u.

1.2 Segnali continui e discreti Il mondo reale, o la sua percezione, si basa su segnali con caratteristiche sostanzialmente analogiche: lo spazio, il tempo, l’intensità di una luce o di un suono possono assumere valori che variano con continuità. Gli organi di senso trasformano le stimolazioni che ricevono in un segnale elettrico; il cervello elabora questi segnali elettrici basandosi sulle informazioni in essi contenute per compiere le scelte più opportune. L’elaborazione numerica dei segnali del mondo reale pone in evidenza un problema fondamentale: i computer possono trattare solo valori finiti; questa è una modalità di trattamento incompatibile con un segnale analogico che, per sua natura, è continuo e caratterizzato da un insieme infinito di valori possibili. In base alle caratteristiche citate, i segnali possono essere classificati in continui e discreti: la funzione u  f ( v苳), che descrive il segnale in base alla modalità con cui le variabili dipendente (u) e indipendente ( v苳) cambiano il loro valore, individua le due seguenti situazioni: 1. la variabile indipendente v苳 assume valori reali oppure un sottoinsieme discreto di valori reali (per esempio, assumendo il tempo come variabile, multipli interi dell’unità di tempo). Si può definire il primo come un segnale a variabile continua, e il secondo come segnale a variabile discreta;

Fig. 1.1 Possibili combinazioni tra funzioni a valori continui o finiti e la variabile indipendente, continua o discreta. Un segnale analogico è a valori continui a variabile continua, un segnale digitale a valori finiti a variabile discreta

4

M. Coriasco et al.

2. la variabile dipendente u assume valori reali o in un sottoinsieme finito di valori reali (per esempio, quando per memorizzare la variabile sia disponibile solo un numero finito di valori, come nel caso dei calcolatori). Nel primo caso il segnale è detto a valori continui, nel secondo caso a valori finiti. Nello schema rappresentato in Figura 1.1 sono rappresentate le quattro combinazioni possibili dei due casi precedenti.

1.3 Il trattamento dell’informazione digitale Per procedere al trattamento ed elaborazione di un segnale proveniente dal mondo reale è necessario trasformare il segnale analogico in segnale digitale. L’insieme di operazioni necessarie è compiuto dal sistema di acquisizione. Il sistema di elaborazione applica al segnale digitale proveniente dall’acquisizione le procedure definite nel contesto degli specifici obiettivi, producendo in uscita il dato digitale elaborato. Dopo l’elaborazione, spesso si rende necessaria l’interazione con il mondo esterno per la manifestazione dei risultati: nel caso delle immagini in ambito medico, appositi strumenti di visualizzazione e di stampa provvedono alla corretta presentazione dell’informazione diagnostica. Il dato digitale elaborato deve quindi essere nuovamente trasformato in un’informazione che possa interfacciarsi con il mondo reale, per esempio la stampa su pellicola o supporto plastico degli esami radiologici. Le operazioni connesse a quest’ultima fase sono compiute dal sistema di distribuzione. Nello schema in Figura 1.2 sono evidenziati i principali passaggi che coinvolgono i tre sistemi.

1.3.1 Il sistema di acquisizione

Descrivere le caratteristiche di un sistema di acquisizione non è agevole, data la varietà di applicazioni. Il sistema può essere costituito dai sensori di una fotocamera digitale o di uno scanner, la sonda di apparecchio per ecografia, il ricevitore RF di una risonanza magnetica, l’insieme dei detettori di una tomografia computerizzata o una camera a scintillazione in medicina nucleare. Si possono, tuttavia, individuare alcuni elementi basilari che sono costantemente presenti in una forma o nell’altra e che ci permettono di schematizzare il loro funzionamento. I principali passaggi nei quali si possono suddivi-

Fig. 1.2 Schema di trattamento ed elaborazione di un segnale proveniente dal mondo reale

1 Rappresentazione digitale di segnali

dere le operazioni di acquisizione sono: rilevamento, condizionamento, multiplexing, campionamento, conversione. Nella fase di rilevamento, l’elemento più importante è il trasduttore. Esso ha la funzione di fornire in uscita una grandezza elettrica di valore proporzionale a quello della grandezza fisica in esame. Il segnale proveniente da un trasduttore deve essere sottoposto a operazioni dette di condizionamento: per ottenere sufficienti garanzie su precisione, linearità e immunità al rumore nel trasferimento del segnale dal trasduttore al circuito successivo, esso è sottoposto ad amplificazione e filtrazione. La qualità e complessità dei circuiti preposti a tali operazioni può essere anche molto elevata, data l’importanza dell’interfacciamento tra il rilevatore del segnale e il resto della circuiteria necessaria al suo trattamento. Se nel sistema di acquisizione è presente più di un trasduttore, può essere utile l’impiego di un elemento di raccordo tra i trasduttori e il circuito di campionamento; questo elemento prende il nome di selettore analogico (analog multiplexer, AMUX). Il multiplexer collega al circuito di campionamento un solo trasduttore per volta, ripetendo ciclicamente l’operazione (multiplexing) per ciascuno dei trasduttori. In tal modo negli stadi successivi è possibile trattare i segnali provenienti da più trasduttori con un solo circuito di campionamento e di conversione. Si osservi che questo metodo pone problemi di temporizzazione e sequenzialità nel trasferimento dei segnali, che dovranno avere sufficiente grado di precisione per garantire la correttezza delle conversioni. Per quanto rapidi, i convertitori analogico/digitali impiegano per la digitalizzazione del segnale analogico una certa quantità di tempo diversa da zero: qualsiasi variazione del segnale in ingresso durante l’operazione di conversione può portare errori significativi. Il circuito che esegue il campionamento, detto circuito SAMPLE and HOLD, ha il compito di prelevare a intervalli di tempo regolari il valore assunto dal segnale tempo-variante in ingresso e mantenerlo stabile durante il tempo necessario al suo trattamento. In ultimo, il convertitore analogico/digitale (analog to digital converter, ADC) riceve in ingresso il segnale analogico proveniente dagli stadi precedenti e lo converte in valori numerici digitali proporzionali ai valori assunti dal segnale in ingresso, producendo in uscita un flusso costante di dati digitali.

1.3.2 Il sistema di elaborazione

Il sistema di elaborazione è normalmente costituito da uno o più calcolatori, più comunemente detti computer, da programmi informatici sviluppati per realizzare le procedure richieste dall’applicazione e, se previste, da interfacce uomo-macchina che consentono di interagire per guidare il raggiungimento dei risultati attesi; tipico il caso dell’apparecchiatura ecografica in cui l’operatore ha la possibilità di modificare i parametri dell’elaborazione tramite il pannello dei comandi. Molte delle tecniche, metodologie e applicazioni descritte nei capitoli successivi avvengono in questo specifico ambito.

5

6

M. Coriasco et al.

1.3.3 Il sistema di distribuzione

Il sistema di distribuzione è costituito dall’insieme di apparecchiature capaci di fornire una rappresentazione dell’informazione affinché sia resa disponibile all’utente finale. Nel campo delle apparecchiature a uso medico esso assume particolare rilevanza: in molti casi, la legislazione stabilisce degli standard qualitativi minimi ai quali il sistema deve uniformarsi per poter essere utilizzato a scopi diagnostici. Le apparecchiature solitamente coinvolte sono monitor oppure stampanti. I principali passaggi nei quali si possono suddividere le operazioni di distribuzione sono: conversione, demultiplexing, ricostruzione e visualizzazione. Il dato digitale elaborato deve nuovamente essere reso in forma analogica attraverso un’operazione di conversione, per ottenere una grandezza elettrica in grado di pilotare lo stadio successivo che provvede a separare opportunamente il segnale (de-multiplexing) affinchè esso sia ricostruito su ciascun singolo elemento della batteria di circuiti che costituiscono il dispositivo di visualizzazione. In modo speculare rispetto a quanto avviene nel sistema di acquisizione, vi è un certo numero di trasduttori il cui compito è di generare il segnale elaborato, sia esso un suono, una luce o la pigmentazione di un supporto adeguato (stampa su carta o su pellicola). La Figura 1.3 riassume schematicamente gli elementi funzionali di un generico sistema di elaborazione digitale dei segnali.

1.4 Grandezze analogiche e digitali La maggior parte dei fenomeni fisici in natura si può definire continuo: le grandezze che rappresentano questi fenomeni variano nel tempo oppure nello spazio con continuità, potendo assumere infiniti valori in un qualunque intervallo considerato. In un recipiente, a seconda che si aggiunga o si tolga dell’acqua, il livello di liquido può assumere tutti gli infiniti valori possibili da zero (livello corrispondente al recipiente vuoto) al massimo (livello raggiunto a recipiente pieno). La variazione del livello di acqua, dunque, entro i limiti dell’osservazione macroscopica, presenta caratteristiche di continuità. Alle grandezze variabili con continuità si contrappone un’altra classe di grandezze che possono variare solo in modo discreto: all’interno di un intervallo esse possono assumere soltanto un numero finito di valori. Un esempio intuitivo è dato dal numero di persone all’interno di una stanza: esso può essere variato facendo entrare o uscire qualcuno, ma esso può in ogni caso variare esclusivamente per salti di almeno un’unità. L’affermazione che in una stanza vi sono 3,4673 persone è priva di significato. Per ottenere la misura di una grandezza variabile con continuità è possibile utilizzare strumenti sia di tipo analogico sia di tipo digitale: essi forniscono rispettivamente una rappresentazione continua o discreta del fenomeno misurato. Un esempio è fornito dalla temperatura: se si effettua la misura con un termometro tradizionale, la variazione dell’altezza del liquido colorato nella colonnina di vetro è continua: per la lettura è necessario paragonare l’altezza raggiunta dal liquido a una scala gra-

1 Rappresentazione digitale di segnali

7 Fig. 1.3 Schema di un sistema di elaborazione digitale dei segnali

duata. Usando per la misura un termometro a display è possibile fornire una misura della temperatura vincolata alle cifre su di esso visibili. Attraverso un’indicazione numerica discreta si passa pertanto da un valore al successivo per intervalli fissi: se si suppone la temperatura in aumento costante, un termometro a display con una cifra decimale indicherà via via 21,2, 21,3, 21,4, ecc. °C, scattando sul valore successivo solo al raggiungimento di una certa soglia di temperatura, per quanto la temperatura passi con continuità attraverso tutti i valori intermedi (Fig. 1.4). Allo stesso modo, un’immagine analogica sarà

8

M. Coriasco et al.

Fig. 1.4 Differenza tra rappresentazione analogica e digitale di un fenomeno analogico. La temperatura varia con continuità, ma un termometro digitale rappresenta la sua variazione “per salti”, anche se con un grado di precisione più o meno elevato. La freccia azzurra verso il basso indica quattro schematizzazioni di termometri con un grado di precisione crescente

a

b

Fig. 1.5 Differenza nell’andamento del segnale rilevato su immagine analogica e digitale percorrendole lungo una direzione orizzontale. Nel caso A, l’andamento presenta caratteristiche di continuità, trattandosi di un’immagine analogica. Nel caso B, l’immagine è digitale, la curva si presenta “spezzata” lungo l’asse delle ascisse e assume valori “livellati” sull’asse delle ordinate, conseguenza rispettivamente del campionamento e della quantizzazione del segnale durante il processo di digitalizzazione, come spiegato in seguito nei paragrafi dedicati

una distribuzione continua di variazioni di intensità luminose tra il nero e il bianco, lungo le due direttrici orizzontale e verticale, mentre un’immagine digitale assumerà un numero limitato di valori, come intuitivamente possiamo comparare in Figura 1.5.

1 Rappresentazione digitale di segnali

9 Fig. 1.6 Differenza tra due strumenti di misura commerciali, a sinistra analogico, a destra digitale. Si noti l’aspetto molto simile nell’impostazione della selezione delle grandezze da misurare e delle portate, mentre fondamentale è la differenza nella rappresentazione dei valori rilevati: nel primo caso con una lancetta di uno strumento con scala graduata, nel secondo caso direttamente sotto forma di numero (per gentile concessione di I.C.E. Strumentazione - Pavia)

1.4.1 Strumenti di misura analogici e digitali

La misurazione di una qualsiasi grandezza fisica può essere fatta con uno strumento analogico oppure digitale, dei quali è rappresentato un esempio in Figura 1.6. Uno strumento analogico è uno strumento di misura nel quale il segnale in uscita (o la sua visualizzazione) è una funzione continua della grandezza fisica oggetto della misura (misurando). Nell’esempio della temperatura di un liquido, che rappresenta il misurando, valutata con un termometro a colonnina di mercurio, la visualizzazione della grandezza misurata è fornita dall’altezza della colonnina, che cambia linearmente e con continuità con la variazione di temperatura. La scala graduata con un numero finito di livelli ha lo scopo di permettere una lettura più agevole, ma il numero di livelli che la colonnina di mercurio può raggiungere, pur entro un certo intervallo, è infinito. Gli strumenti di misura analogici possono inoltre essere di due tipi: a lettura diretta o a lettura indiretta; al primo gruppo appartengono gli strumenti in cui il valore misurato è direttamente leggibile su una scala graduata nell’adeguata unità di misura, al secondo gruppo gli strumenti nei quali il valore misurato viene reso disponibile da un trasduttore come segnale che rappresenta una grandezza diversa da quella del misurando; in ogni caso essa è proporzionale al misurando (generalmente si tratta di una grandezza elettrica) che viene successivamente rappresentata da uno strumento indicatore con una scala di valori opportunamente scelta. Uno strumento di misura digitale è un apparecchio in cui la grandezza fisica misurata è rappresentata direttamente sotto forma di numero. L’indicazione numerica può essere fornita in diversi modi, solitamente di tratta di un display in grado di riportare il valore numerico della misura.

10

M. Coriasco et al.

Fig. 1.7 Errore di parallasse introdotto dalla necessità di paragonare la posizione della lancetta dello strumento con una scala graduata. Nella parte in basso della figura sono schematicamente rappresentate in sezione la scala graduata e la lancetta dello strumento (rettangolo azzurro). Si osservi come l’angolo di visuale influenza la bontà della lettura, provocando una sovrastima o sottostima del valore reale. Negli strumenti di misura professionali, il problema è risolto collocando uno specchio dietro la scala graduata: la lettura (in questo caso circa 15 Ohm) è corretta quando la lancetta e il suo riflesso sono perfettamente sovrapposti (freccia verde tratteggiata). Negli altri due casi si ha una sottostima (freccia rossa, valore letto circa 12 Ohm) o sovrastima (freccia blu, valore letto circa 20 Ohm) del valore realmente misurato dallo strumento

1.4.2 La risoluzione di una misura

Nell’ambito dell’esecuzione di una misura, il termine risoluzione indica in generale la capacità di rilevare la variazione della grandezza fisica in esame. Più specificamente, può indicare la minima variazione della grandezza rilevabile dallo strumento: misurando la temperatura con una risoluzione di 0,1°C, è possibile apprezzare variazioni del suo valore maggiori o uguali a 0,1°C. In pratica, la risoluzione di misura costituisce il limite inferiore al di sotto del quale non ha più senso definire un valore di lettura. Un valore rilevato di 10,5°C ha senso utilizzando uno strumento con risoluzione di 0,1°C, mentre lo stesso valore non ha senso se misurato con uno strumento avente risoluzione pari a 1°C. In altre parole, la risoluzione di uno strumento quantifica l’errore commesso nell’approssimare il valore reale della grandezza misurata. Poiché l’indicazione fornita da uno strumento analogico ideale può assumere infiniti valori, il suo errore di risoluzione è teoricamente pari a zero. Nell’utilizzo pratico, però, la lettura deve essere mutuata da una scala graduata, che introduce quindi rilevanti limitazioni sia sulla risoluzione dello strumento sia sull’errore commesso durante la lettura. La maggiore o minore precisione della scala graduata impone limiti più o meno grandi sulla risoluzione di lettura; l’errore commesso durante la lettura è condizionato, ad esempio, da problemi di parallasse introdotti dalla seppur minima distanza tra la lancetta dello strumento e la scala graduata (Fig. 1.7).

1 Rappresentazione digitale di segnali

11

Nella rappresentazione digitale di una grandezza misurata, la risoluzione è invece definita in modo univoco (si osservino i diversi gradi di precisione dei termometri in Fig. 1.4 a sinistra). Si osservi che: • la rappresentazione digitale di un fenomeno analogico è una sua approssimazione; • l’errore di approssimazione dipende dalla risoluzione dello strumento digitale utilizzato. Il funzionamento di uno strumento di misura digitale può essere schematizzato in tre principali componenti: un trasduttore, che rileva la grandezza fisica da sottoporre a misurazione convertendola in un segnale, un convertitore A/D che provvede a trasformare in un numero il segnale proveniente dal trasduttore e un display che provvede a fornire una rappresentazione della misura con il grado di precisione voluto.

1.5 Il trasduttore Come si può osservare nello schema riassuntivo di Figura 1.3, il primo degli elementi coinvolti nel processo di acquisizione è il trasduttore. Esso ha la funzione di fornire in uscita una grandezza elettrica di valore proporzionale alla grandezza fisica in esame. Il microfono fornisce un segnale proporzionale all’onda di pressione acustica misurata, una termocoppia fornisce una tensione proporzionale alla temperatura che registra, un fotodiodo fornisce una corrente in proporzione alla luminosità dalla quale è interessato. Nello schema in Figura 1.8 sono elencati alcuni esempi di trasduttori raffrontati alla grandezza fisica che sono in grado di misurare e il tipo di grandezza elettrica fornita in uscita. Allo stesso modo, altri tipi di trasduttori avranno il compito di convertire una grandezza elettrica in ingresso, tipicamente tensione, corrente, capacità o resistenza, in una grandezza fisica apprezzabile dai cinque sensi, come luce, suono, calore o altre. Alcuni esempi sono visibili in Figura 1.9.

Fig. 1.8 Esempi di trasduttori in ingresso, che trasformano fenomeni fisici in fenomeni elettrici

12

M. Coriasco et al.

Fig. 1.9 Esempi di trasduttori in uscita, che trasformano fenomeni elettrici in fenomeni fisici

1.6 Il sistema campionatore Per trattare un segnale variabile nel tempo o nello spazio proveniente dal trasduttore e convertirlo in valori numerici memorizzabili, occorre considerare soltanto alcuni dei valori da esso assunti a intervalli regolari: quest’operazione, detta campionamento, è compiuta ad opera del sistema campionatore. Il sistema campionatore si occupa di prelevare a un intervallo  prefissato detto periodo di campionamento i valori del segnale in ingresso f(t) ottenendo un segnale discreto f(n): i valori registrati sono ancora tutti valori reali del segnale originario, ma sono trascurati tutti gli infiniti valori esistenti tra un prelievo e il successivo (Fig. 1.10). 1 La frequenza di campionamento vale il reciproco del periodo, f s  .  Un tipico esempio di applicazione è quello su un segnale temporale come quello che porta l’informazione sonora, ma gli stessi principi sono applicabili a un segnale spaziale come le variazioni di energia luminosa di un’immagine, prelevando a intervalli definiti sulle coordinate x e y i valori di luminosità corrispondenti. Una prima considerazione importante è che la precisione con la quale si approssima la curva originaria dipende dalla dimensione dell’intervallo di campionamento, che condiziona il numero di campioni prelevati nell’unità di tempo. Al diminuire del periodo, cioè aumentando la frequenza di prelievo dei campioni, aumenta la quantità di informazione originale prelevata, migliorando la qualità dell’approssimazione del fenomeno campionato (Fig. 1.11). Ha senso chiedersi, dunque, se sia possibile determinare la frequenza minima di campionamento sotto alla quale il segnale non è più correttamente ricostruibile con i campioni acquisiti.

1.6.1 Il teorema di Fourier

Per rispondere alla domanda del paragrafo precedente è utile considerare il teorema di Fourier.

1 Rappresentazione digitale di segnali

Fig. 1.10 Esempio di campionamento di una curva esprimente un fenomeno analogico: a intervalli regolari si è prelevato il valore corrispondente della grandezza f(t) (pallino bianco). L’interpolazione lineare tra i valori rilevati fornisce un’approssimazione della curva originaria. I valori misurati f(t), pur entro un intervallo di valori ammissibili, si distribuiscono tuttavia ancora su un numero infinito di valori possibili

Fig. 1.11 In a è stato effettuato un campionamento con periodo di 1 cm (vale a dire 1 campionamento ogni centimetro). In b, il periodo è raddoppiato, con un campionamento di periodo 5 mm (con frequenza di 2 campionamenti ogni centimetro). In c un ulteriore raddoppio della frequenza di campionamento (4 campionamenti ogni centimetro) permette una migliore approssimazione della curva originaria

13

14

M. Coriasco et al.

Fig. 1.12 Rappresentazione di un segnale come somma di funzioni sinusoidali e corrispondente spettro. La funzione f1(t) è caratterizzata da ampiezza A1 e frequenza f1, la funzione f2(t) da ampiezza A2 e frequenza f2. Il segnale somma è rappresentato dalla funzione f3(t) = f1(t) + f2(t), nella quale le informazioni relative ad ampiezza e frequenza dei singoli segnali componenti non è più visibile (funzione in basso a sinistra). Con l’operazione di trasformazione di Fourier, nel dominio delle frequenze, le singole componenti del segnale somma tornano a mettersi in mostra con la loro frequenza e ampiezza. Analoghe considerazioni sono possibili nel caso delle fasi dei singoli segnali componenti il segnale somma, che in questo caso per semplicità sono state scelte identiche

Esso afferma che qualunque forma d’onda di segnale periodico può essere scomposta nella somma di un termine costante e di funzioni sinusoidali di opportuna frequenza e fase. L’insieme di tutte le frequenze delle sinusoidi componenti prende il nome di spettro di quella forma d’onda. Si osservi che il teorema è applicabile anche a generici segnali non periodici, considerando come periodo l’intero intervallo temporale del segnale da analizzare e replicando infinitamente il segnale a sinistra e a destra. Il segnale così ottenuto acquisisce caratteristiche di periodicità, e verifica le condizioni di applicabilità del teorema. Basandosi sui risultati del teorema, nell’operazione detta sintesi di Fourier sarà possibile generare qualsiasi segnale sommando forme d’onda sinusoidali di opportuna frequenza e fase, ciascuna di esse moltiplicata per un coefficiente anch’esso opportunamente scelto; tra i casi più conosciuti dell’applicazione della sintesi di Fourier troviamo gli strumenti musicali elettronici. Nell’operazione detta analisi di Fourier, sarà possibile scomporre un qualsiasi segnale determinando le forme d’onda sinusoidali e i coefficienti che lo costituiscono (Fig. 1.12): salvo casi particolari, la somma ha un numero di termini infinito. Sarà necessario, dunque, arrestare i calcoli dopo un certo numero di passi, dipendente dall’arbitrario grado di precisione con il quale si intende approssimare

1 Rappresentazione digitale di segnali

15 Fig. 1.13 Esempio di analisi e sintesi di Fourier, due aspetti diversi dai quali si può considerare il teorema di Fourier

il segnale. Nell’esempio di Figura 1.13 è stato rappresentato il caso semplice di un segnale ottenibile come somma di un numero finito di sinusoidi: si noti tuttavia che, in accordo con il teorema, il numero delle sinusoidi componenti è in realtà sempre infinito, ma da un certo passo in poi i loro coefficienti sono nulli e non compaiono più. L’analisi di Fourier è compiuta attraverso lo strumento matematico della trasformata di Fourier, che consente di calcolare frequenza, fase e coefficiente delle sinusoidi che compongono il segnale. Essa non sarà oggetto di trattazione matematica rigorosa, per la quale si rimanda a letteratura specifica, ma nel corso dei capitoli successivi verranno affrontate diffusamente le conseguenze della sua applicazione nel campo dell’elaborazione delle immagini digitali.

16

M. Coriasco et al.

1.6.2 Il teorema del campionamento

Abbiamo descritto come attraverso il campionamento sia possibile descrivere un segnale continuo proveniente da un sensore. Nella Figura 1.14 è schematizzata un’onda RF, per esempio una componente di quella proveniente dal paziente sottoposto a un esame di risonanza magnetica. Tale onda è un segnale continuo e, per poterla trattare ed elaborare con l’apparecchiatura RM, è necessario eseguirne il campionamento e la digitalizzazione, misurandone l’intensità a intervalli regolari. Confrontando i due campionamenti rappresentati, in accordo con quanto sopra affermato, è evidente che il segnale digitale approssima tanto meglio il segnale analogico, quanto maggiore è il numero di campioni prelevati. Poiché il periodo di campionamento è la distanza temporale tra il prelievo di un campione e il successivo, la frequenza di campionamento, definita come reciproco del periodo e data da fc  1/ esprime il numero di campioni al secondo prelevati dal segnale f(t). Nel caso di frequenza di campionamento fc troppo bassa, si ha una perdita di informazione nella ricostruzione del segnale originale; nel caso di frequenza fc troppo alta si ha un eccesso di informazione e il numero di campioni appesantisce inutilmente le successive elaborazioni. La frequenza minima di campionamento sufficiente a ricostruire correttamente un segnale continuo è determinata dal teorema di Nyquist-Shannon o teorema del campionamento.

Fig. 1.14 Esempio di campionamento di un fenomeno periodico analogico (onda RF). In a, il campionamento viene eseguito a intervalli di tempo regolari 2. La curva risultante è una spezzata che approssima il fenomeno analogico da cui proviene (sotto). In basso, dimezzando la dimensione dell’intervallo raddoppia la frequenza di campionamento e migliora l’approssimazione della curva originale del fenomeno analogico (b)

1 Rappresentazione digitale di segnali

Il teorema del campionamento è uno dei teoremi fondamentali della teoria dei segnali. Esso stabilisce come individuare la minima frequenza necessaria per campionare un segnale analogico senza che si verifichi perdita di informazione, riuscendo così a ricostruire il segnale analogico originario. Mettendo in relazione il contenuto di un segnale campionato con la frequenza di campionamento, e valutando le componenti di frequenza minime e massime del segnale analogico originale, il teorema, verificate alcune ipotesi, dimostra che nella conversione da analogico a digitale la frequenza minima di campionamento necessaria a ricostruire il segnale originario senza perdita di informazione o ambiguità, deve essere almeno il doppio della massima frequenza dello spettro di Fourier del segnale analogico da campionare. Tale frequenza è detta frequenza di Nyquist.

1.6.3 Il fenomeno aliasing

L’aliasing, detto anche sottocampionamento o distorsione da campionamento lento, è il fenomeno per cui due segnali analogici diversi possono diventare tra loro indistinguibili una volta che siano stati campionati. Esso altera la veridicità del risultato in uscita del sistema in esame, producendo risultati falsi, o comunque ambigui. L’aliasing può essere riscontrato sia nel tempo sia nello spazio: nell’ambito delle immagini esso solitamente riguarda le frequenze spaziali dell’immagine, per quanto in diagnostica per immagini non sia infrequente che esso si verifichi, a monte della ricostruzione dell’immagine, anche in ambito temporale (ad esempio, in RM o in ultrasonologia). Tipicamente, l’aliasing si verifica quando nel campionamento non sono rispettate le condizioni imposte dal teorema precedente, cioè quando la frequenza di campionamento è insufficiente. Un esempio di aliasing nel dominio temporale è visibile in Figura 1.15, mentre in Figura 1.16 è rappresentato un esempio di aliasing nel dominio delle frequenze, ulteriormente caratterizzato in Figura 1.17a, aliasing che a parità di sistema utilizzato per il campionamento tende a divenire più evidente con l’aumentare delle frequenze spaziali (Fig. 1.17b). Da quanto detto si può notare che non si pongono limiti superiori alla frequenza di campionamento, ma le considerazioni fatte in precedenza suggeriscono che una ridondanza d’informazione legata a una frequenza di campionamento troppo elevata non solo risulta inutile, ma può essere addirittura controproducente poiché appesantisce il lavoro del sistema di elaborazione del segnale senza alcun vantaggio in termini di precisione. Nelle applicazioni pratiche, essendo assai raro il caso di segnali con spettro di frequenze limitato, il campionamento è effettuato utilizzando una misura della massima frequenza del segnale efficace, tale per cui l’errore di ricostruzione dei campioni (aliasing) sia trascurabile. La quantità di frequenze contenute in un segnale analogico, infatti, è finita solo nel caso in cui esso sia composto da sinusoidi pure, mentre nella pratica un segnale analogico contiene di fatto un numero di frequenze infinito.

17

18

M. Coriasco et al.

Fig. 1.15 Esempio di aliasing. Le sinusoidi in nero e in blu rappresentano rispettivamente un segnale a 0,5 e a 3,5 kHz. Campionando a una frequenza insufficiente (4 kHz, ogni 0,25 s, pallini in nero) i valori rilevati per le due sinusoidi coincidono, generando ambiguità, mentre campionando a una frequenza doppia (8 kHz, ogni 0,125 s, pallini in blu) i valori rilevati per i due segnali sono diversi. In altre parole, i pallini neri, che rappresentano i campioni prelevati a una frequenza insufficiente, possono essere interpolati sia dalla curva nera che da quella blu. Tale ambiguità è dovuta al fatto che non è rispettato il teorema del campionamento, secondo cui la frequenza alla quale vanno prelevati i campioni dev’essere almeno il doppio della massima frequenza che compare nel segnale originario

Fig. 1.16 Esempio di aliasing nel campionamento di un’immagine. Il caso del campionamento alla frequenza di Nyquist (al centro) produce una curva non perfetta ma che sostanzialmente riproduce la frequenza originaria del segnale dell’immagine originale (in alto), come si vede a sinistra dal suo profilo. Nel caso di una frequenza inferiore a quella di Nyquist (in basso), si osservi come il segnale campionato risultante sottostimi la frequenza originaria, dando luogo al fenomeno detto di aliasing

La banda di un segnale analogico, scelta secondo criteri legati alla fedeltà di riproduzione del segnale originale desiderata nel segnale digitale, è data dall’intervallo di frequenze che vanno dalla minima alla massima contenenti la maggior parte dell’energia del segnale. A minore banda corrisponde minore fedeltà di riproduzio-

1 Rappresentazione digitale di segnali

19

Fig. 1.17 Esempio di aliasing nell’ambito delle frequenze spaziali su un’immagine formata da una raggiera di linee concentriche. Nell’immagine in a, con l’aumento delle frequenze spaziali, man mano che la raggiera diventa più fitta, verso il centro, la capacità di campionamento del sistema utilizzato per la rappresentazione non è più sufficiente e si nota la comparsa di disegni altrimenti inesistenti. Tali disegni sono causati da un’insufficiente frequenza di campionamento del sistema di visualizzazione, con conseguente aliasing, e il fenomeno diventa progressivamente più evidente se si riduce l’angolo tra le linee, cioè aumentando le frequenze spaziali, come visibile nell’esempio in b

ne del segnale originale. Le frequenze al di fuori della banda sono solitamente eliminate ad opera di filtri. Ad esempio, una trasmittente radio in modulazione di frequenza utilizza una banda di 15 kHz, per quanto il suo spettro contenga armoniche, prodotte durante la modulazione, di frequenza anche molto superiore. Esempi di segnali, banda occupata e minima frequenza di campionamento sono visibili nello schema in Figura 1.18.

1.7 Il sistema quantizzatore Il sistema quantizzatore, applicato a un segnale continuo f (t), lo trasforma in un segnale a valori finiti Q( f(t)). La funzione Q opera su un insieme finito di numeri V  {x1, … , xm} e associa a ogni valore reale x del segnale in ingresso il più vicino valore dell’insieme V, vale a dire: Q(x)  argminx – xk  xkV Nell’esempio rappresentato in Figura 1.19 in alto, i valori assunti dalla curva a un certo istante t sono approssimati al più vicino valore xk, sull’asse delle ordinate. Nella stessa figura, in basso, è schematizzato il modo di operare del sistema quantizzatore a un solo

20

M. Coriasco et al.

Fig. 1.18 Esempi di segnali con relativa banda occupata e frequenza di campionamento. Facendo riferimento all’esperienza, si osservi come a una più ristretta banda corrisponda minor fedeltà riproduttiva dell’audio

Fig. 1.19 Schema di funzionamento del sistema quantizzatore. Esso riceve in ingresso un segnale continuo e fornisce in risposta un segnale a valori finiti. In alto, il numero finito di valori disponibili per la quantizzazione è dato da V = (x1,…, xm) e i valori assunti dalla funzione sono approssimati con il più vicino valore disponibile x1 dell’insieme V. In basso è rappresentato un esempio di sistema quantizzatore a due valori (x11, x21) con g(t)=sgn(f(t)). La funzione sgn fa sì che quando il segnale in ingresso assume valori diversi da zero valga 1 se il valore è positivo e 1 se il valore è negativo

bit, quindi con l’insieme limitato a due soli valori disponibili: l’insieme è dato da V  {1, 1}, e la funzione applicata è g(t)  sgn( f(t) ) . Per operare la quantizzazione di un segnale si utilizza un circuito denominato convertitore analogico digitale, descritto nel paragrafo successivo.

1 Rappresentazione digitale di segnali

1.7.1 Il convertitore A/D: campionamento e quantizzazione

Il convertitore analogico/digitale è un circuito elettronico che riceve in ingresso un segnale elettrico variabile con continuità e ne fornisce una rappresentazione numerica discreta. Le caratteristiche fondamentali del convertitore A/D sono l’intervallo di valori ammissibili per la grandezza in ingresso e il numero di livelli associato alla variazione del segnale entro tale livello, per ciascuno dei quali esiste la relativa indicazione numerica. Facendo riferimento all’esempio del termometro digitale, il sensore trasforma l’informazione proveniente dalla misura della temperatura circostante in una grandezza elettrica proporzionale alla grandezza fisica. L’informazione elettrica proveniente dal sensore è tuttavia ancora una grandezza variabile con continuità e deve quindi essere trasferita a un circuito (il convertitore A/D) in grado di trasformarla in un valore discreto che possa essere rappresentato (Fig. 1.20). Per compiere l’operazione il convertitore A/D fissa un intervallo di riferimento all’interno del quale deve trovarsi la grandezza da misurare e lo suddivide in un numero più o meno elevato di sottointervalli, o gradini, ai quali approssima (quantizzazione) la grandezza elettrica ricevuta in ingresso. Si supponga che tale grandezza elettrica sia una tensione: nel caso del termometro digitale, si può ipotizzare che l’intervallo di valori di tensione provenienti dal sensore si trovi tra 5 V e 5 V, e che essi siano associati a un intervallo di temperature che vanno da 20°C a 80 °C. Supponendo che il termometro abbia una precisione di misura di 1°C, sulla base di quanto formulato, poiché l’intervallo da 20° a 80° è di 100 gradi, il convertitore A/D dovrà suddividere in 100 parti l’intervallo elettrico di 10 volt in ingresso, dando luogo a una sensibilità alla variazione di tensione di 10 Volt/100, ovvero 0,1 Volt. Ipotizziamo ora che dal sensore provenga una tensione compresa tra 5 e 4,9 Volt: il convertitore A/D farà corrispondere ad essa la rappresentazione di una temperatura di 20°C, a un valore compreso tra 4,8 e 4,9 Volt una temperatura di 19°C e così via.

Fig. 1.20 Schema di funzionamento di base di uno strumento di misura digitale. Il sensore ha la funzione di convertire la grandezza da misurare in un’altra (solitamente una tensione elettrica, che può variare con continuità all’interno di un certo intervallo) utile a pilotare un circuito, il convertitore A/D, che la converte in valori numerici atti a pilotare uno strumento capace di rappresentare l’informazione da esso proveniente (ad esempio, un display elettronico a LED o LCD)

21

22

M. Coriasco et al.

Fig. 1.21 Definizione del passo di discretizzazione per la conversione analogico digitale, tramite raffronto tra il range dei valori ammissibili provenienti dal trasduttore con una scala a gradini di livelli discreti disponibili

Una variazione di temperatura di mezzo grado non produrrà alcuna variazione del valore in uscita, non essendo sufficiente a far compiere lo scatto al gradino successivo. Per definire completamente la conversione A/D è quindi necessario stabilire sia un intervallo continuo di valori della grandezza da misurare, sia il numero totale di livelli discreti che devono essere rappresentati in uscita. Questi due parametri caratteristici della conversione, definiscono il passo di discretizzazione (ampiezza del gradino) che è dato dal rapporto tra l’ampiezza dell’intervallo dei valori in ingresso e il numero dei livelli in uscita. Si supponga di disporre all’ingresso del convertitore di un segnale elettrico variabile nell’intervallo [V1,V2] e di disporre di M diversi livelli. Il passo di discretizzazione sarà dato da: ΔV = V 2

−V 1 M

Nell’esempio di Figura 1.21 si avrà dunque: ΔV =

10 − 0 = 0, 5 20

Per un valore di tensione arbitrario Vx compreso nell’intervallo [V1,V2] il livello discreto N associato sarà dato dalla seguente equazione: ⎡ ⎤ − N = int ⎢V 2 V 1 ⎥ ⎢⎣ M ⎥⎦

1 Rappresentazione digitale di segnali

Fig. 1.22 Esempio di conversione analogico digitale: il segnale in ingresso varia tra 0 e 10, e il numero di livelli disponibili è 20. Di conseguenza, il passo di discretizzazione ha ampiezza pari a 0.5, e i valori numerici in uscita dal convertitore A/D varieranno tra 0 e 20

Per cui, ad esempio, avendo in ingresso un valore di tensione di 8,87 V, il livello discreto associato sarà dato da: ⎡ 8, 87 − 0 ⎤ N = int ⎢ ⎥ = int(17, 34 ) = 17 ⎣ 0, 5 ⎦ Nella Figura 1.23 sono riassunte le operazioni principali che consentono di eseguire la conversione analogico/digitale di un generico segnale continuo. Applicando le considerazioni fatte fino a questo punto a uno strumento di misura, si ricava facilmente che la scelta del numero di livelli disponibili per la conversione analogico/digitale influisce direttamente sul suo grado di precisione. In Figura 1.22 un esempio completo di conversione A/D.

1.8 L’immagine come distribuzione di energia Fra le grandezze rappresentabili come segnali rientrano le immagini, in quanto distribuzioni bidimensionali di valori di luminosità e di colore, che cambiano il loro valore al variare delle due coordinate del piano. Considerando il caso più semplice di un’immagine monocromatica, priva quindi di informazioni relative al colore, sulla base di quanto affermato è possibile associarla a un segnale di sola luminosità variabile nello spazio, come chiarito nell’esempio della Figura 1.24. In accordo a quanto già espresso in

23

24

M. Coriasco et al.

Fig. 1.23 Operazioni principali del processo di conversione analogico/digitale di un generico segnale continuo

Fig. 1.24 L’immagine come distribuzione bidimensionale di valori. Nel caso di un’immagine monocromatica, percorrendo l’immagine lungo le due direzioni del piano x e y si ottengono due funzioni che contengono l’informazione di luminanza misurata. Il caso di un’immagine a colori è analogo, ma è necessario considerare anche l’informazione del colore (crominanza)

precedenza per un segnale generico, il segnale associato a un’immagine monocromatica si può esprimere dal punto di vista matematico come funzione delle coordinate del piano L  f ( v苳), dove: • L è la variabile dipendente che esprime i valori di luminosità nell’immagine; • v苳 è la variabile indipendente che esprime il vettore di coordinate del piano; • f è la funzione che associa a ogni valore di v il corrispondente valore della grandezza fisica L. Analoghe considerazioni possono essere estese al caso più generale di un’immagine a colori: ciascun colore rilevato a determinate coordinate (x, y) è ottenibile come somma

1 Rappresentazione digitale di segnali

25 Fig. 1.25 Effetto dell’applicazione successiva dei sistemi campionatore e quantizzatore su segnale analogico. L’applicazione dei due sistemi su un segnale analogico ricavato da un’immagine secondo le modalità appena trattate, permette di ottenere come risultato un’immagine digitale

di luminosità variabili dei tre colori base rosso, verde e blu (quella che nel corso del testo verrà illustrata come codifica RGB). L’immagine sarà quindi associabile a tre funzioni distinte del piano, ciascuna esprimente la luminosità di uno dei colori base sotto forma di segnale. Le considerazioni viste sulla conversione analogico/digitale, applicate a questi singoli segnali, permetteranno di ottenere l’immagine nella forma digitale: nella Figura 1.25 è riassunto il procedimento di conversione del segnale da analogico a digitale, rappresentando le forme d’onda del segnale sottoposto al sistema campionatore e quantizzatore. Gli aspetti più importanti della conversione e le loro conseguenze saranno trattati nel corso del capitolo 3.

1.9 Cenni sull’architettura degli elaboratori La maggior parte degli elaboratori programmabili moderni sono realizzati basandosi sull’architettura di Von Neumann, detta anche “a memoria condivisa”, in cui nello stesso spazio di memorizzazione coesistono sia le istruzioni del programma sia i dati sui quali esse devono operare. Tale caratteristica distingue l’architettura di Von Neumann dall’architettura Harvard, nella quale per le istruzioni e i dati sono utilizzati due spazi fisici distinti. L’architettura si compone di cinque elementi fondamentali: • central processing unit (CPU o unità di lavoro); • unità di memoria, intesa come memoria principale (la random access memory, RAM); • unità di input, tramite la quale i dati e istruzioni vengono inseriti nel calcolatore; • unità di output, necessaria affinché i dati elaborati possano essere restituiti all’operatore; • il Bus, un canale che collega tutti i componenti fra loro.

26

M. Coriasco et al.

Fig. 1.26 Schema architetturale del calcolatore secondo Von Neumann

Lo schema in Figura 1.26 fornisce una rappresentazione grafica dell’architettura di un generico calcolatore. Nella forma più semplice e generica, per produrre un’elaborazione, l’utente carica il programma all’interno della memoria centrale avvalendosi delle unità di input, siano essi dei videoterminali con tastiera, oppure dei dischi magnetici nonché ottici, o qualsiasi altro metodo con cui possa efficacemente colloquiare con l’elaboratore; successivamente, vengono inseriti i dati da elaborare e viene dato il comando di start all’elaboratore, che produrrà un qualche risultato sulle unità di output. Questo modello di lavoro è stato la realtà dei calcolatori per molti anni, ma con il progredire delle tecnologie, l’avvento di nuovi sistemi operativi e di calcolatori sempre più sofisticati, il modello di lavoro si è evoluto ed è ora molto più articolato. Se la nostra capacità di interagire con l’elaborazione ha subito notevoli cambiamenti e innovazioni, all’interno del calcolatore il funzionamento è all’incirca sempre lo stesso: sono cambiati i modi con cui l’elaboratore comunica con la persona che lo adopera, la sua velocità di elaborazione e la semplicità di utilizzo. Per trattare i segnali con un calcolatore è necessario che i dati che li descrivono siano rappresentati in una forma trattabile dal calcolatore. L’uomo adotta per contare ed eseguire calcoli un sistema posizionale in base 10, molto verosimilmente perché risulta comodo utilizzare per contare le dieci dita delle mani, prima di passare alla decina successiva. I calcolatori digitali utilizzano un sistema posizionale in base 2, perché le “dita” di cui essi dispongono sono soltanto due, associabili a due livelli di tensione, livello “uno” corrispondente alla presenza di tensione e livello “zero” corrispondente alla sua assenza (Fig. 1.27). L’unità di memoria centrale è composta da celle elementari, ciascuna delle quali può memorizzare due soli stati o situazioni diverse (“0” e “1”) rappresentati con una cifra binaria elementare detta bit, forma contratta delle parole BInary digiT. All’interno di un calcolatore sono presenti miliardi di miliardi di celle a formare la memoria in cui riversare i dati da analizzare e le istruzioni su come elaborare i dati stessi.

1 Rappresentazione digitale di segnali

27 Fig. 1.27 Nel calcolatore le cifre binarie sono rappresentate da livelli di tensione misurate su fili elettrici. I livelli di tensione, solitamente due, sono associati a un livello logico: nell’esempio rappresentato l’assenza di tensione è associata al livello logico 0, mentre la presenza di tensione è associata al livello logico 1, anche se è possibile lavorare con la convenzione opposta. In ogni caso è possibile memorizzare e trattare due stati diversi (logica binaria)

Per risolvere un problema con un calcolatore, sarà indispensabile conoscere l’algoritmo, ovvero un succedersi di passi che descrivano la procedura con cui desideriamo che si operi sui dati, al fine di ottenere uno specifico risultato. L’algoritmo, che può essere una descrizione informale della procedura da applicare, sarà tradotto, tramite un linguaggio di programmazione, in un programma che potrà essere inserito all’interno del calcolatore. Un calcolatore è in grado di applicare il programma ai dati, operando su di essi le singole istruzioni che compongono il programma; le istruzioni vengono eseguite dal cuore del calcolatore, la CPU (central processing unit), o microprocessore, o più semplicemente processore. Il processore elabora un’istruzione per volta, prelevando i dati necessari dalla memoria centrale, eseguendo l’operazione richiesta e memorizzando i risultati nuovamente nella memoria centrale. È intuitivo pertanto che le sequenze di istruzioni devono essere ordinate in modo ben preciso: far eseguire un calcolo su dei numeri e stampare il risultato ha senso, mentre il contrario è privo di significato, non potendosi stampare il risultato di un calcolo prima di aver eseguito il calcolo stesso. Per informazioni più approfondite e rigorose, rimandiamo alla letteratura specifica, ma da quanto detto dovrebbe risultare chiaro che i tipi di informazioni che la CPU è in grado di trattare sono due: gli ordini da eseguire (istruzioni) e i dati sulle quali le istruzioni sono eseguite (operandi). Ogni istruzione è codificata in maniera specifica dal costruttore di ciascuna CPU: questo significa che ogni processore utilizza una diversa codifica delle istruzioni che è in grado di eseguire. Il VIC20 della Commodore utilizzava un processore Motorola 6502c, mentre nel Commodore 64 vi era una sua versione più evoluta, il Motorola 6510. Il cuore dello Spectrum

28

M. Coriasco et al.

era lo Zilog Z80, mentre nel primo PC IBM era possibile trovare il processore 8086 della Intel, evoluto negli anni con il nome di 80286, i386, i486, Pentium, Xeon, Itanium, Centrino; attualmente gli smartphone di ultima generazione utilizzano processori basati sull’architettura ARM, come il CortexV9. I processori si dividono in due grandi famiglie: • CISC (Complex Instruction Set Computers), in cui esistono specifiche istruzioni anche per operazioni complesse; sono processori con un elevato numero di componenti e sono caratterizzati da una fase produttiva molto articolata; • RISC (Reduced Instruction Set Computers), in cui il numero di istruzioni è il minimo possibile e le operazioni complesse sono realizzate componendo istruzioni semplici; sono processori con un minor numero di componenti, di conseguenza la fase produttiva è più semplice. Per capire meglio la differenza, nei processori di tipo CISC è normale trovare sia l’istruzione MUL che esegue la moltiplicazione tra interi, che la ADD utile per eseguire l’addizione tra due interi; in un processore RISC è normale che sia presente solo l’istruzione ADD, e la moltiplicazione verrà realizzata attraverso l’uso di addizioni multiple. Appartengono alla famiglia CISC tutti i processori x86, che sono il cuore dei nostri portatili e personal computer, mentre sono processori di tipo RISC quelli della famiglia ARM, che troviamo spesso nei palmari e smartphone di ultima generazione. Nella Figura 1.28 troviamo un esempio minimale di programma rappresentato sia in linguaggio macchina, come sequenza di zeri e di uno, sia nella forma più leggibile del corrispondente linguaggio assembly.

Fig. 1.28 Esempio di istruzioni in linguaggio assembly e corrispondente codifica in linguaggio macchina. Questo semplicissimo programma confronta il contenuto di due locazioni di memoria e memorizza in una terza locazione il risultato del confronto, ponendovi il valore “1” se i contenuti coincidono e “0” se sono diversi. Si notino i due differenti tipi di parametro, assoluto, quando il valore è specificato direttamente nella locazione successiva all’istruzione (LDX #00) e relativo, quando nella locazione successiva è invece specificato l’indirizzo della locazione che contiene il valore di interesse (LDA $20)

1 Rappresentazione digitale di segnali

1.9.1 L’informazione binaria

La memoria di un calcolatore è composta da bit che possono assumere solamente due valori: 0 o 1. Se consideriamo una sequenza di 8 bit, questi permettono di rappresentare 256 valori; lasciamo al lettore la prova di quanto detto, variando ciascun bit da 00000000 per finire a 11111111, considerando tutte le possibili combinazioni intermedie di 0 e 1. Una sequenza costituita da n bit sarà in grado di rappresentare 2n informazioni diverse, esattamente come nel sistema posizionale decimale solitamente utilizzato nella pratica quotidiana, in cui disponendo di dieci cifre (da 0 a 9) è possibile rappresentare 10n informazioni diverse (con due sole cifre si ha 102  100 configurazioni diverse, da 0 a 99); in generale possiamo affermare che in un sistema numerico posizionale in base B e con n cifre disponibili, il numero di diverse configurazioni rappresentabili è Bn. Nella Figura 1.29 è schematizzato il procedimento per convertire un numero binario in numero decimale. Sequenze di 8 bit prendono il nome di BYTE, sequenze di 16 bit prendono il nome di word, sequenze di 32 bit prendono il nome di DOUBLE WORD, come schematizzato nella Figura 1.30. L’evoluzione tecnologica ha reso possibile trattare contemporaneamente un numero di bit crescente: allo stato attuale è possibile manipolare sequenze di 64 bit, che prendono il nome di QUAD WORD.

Fig. 1.29 Il sistema binario è un sistema posizionale, esattamente come il sistema decimale, pertanto è necessario stabilire il “peso” di ciascuna cifra in base alla posizione occupata nel numero e moltiplicandola per una potenza che ha per base la base del sistema considerato (base 2 per il binario, base 10 per il decimale, base 16 per il sistema esadecimale, ecc.) e per esponente la posizione occupata dalla cifra stessa, numerata a partire da zero da destra verso sinistra. Nell’esempio si illustra come convertire un numero binario nel suo corrispondente decimale

29

30

M. Coriasco et al.

Fig. 1.30 Aumentando il numero di bit a disposizione per la codifica numerica, aumentano i numeri rappresentabili. L’incremento va per potenze del due: con 8 bit sono codificabili 28  256 numeri, con 16 bit si possono codificare 216  65536 numeri, con 32 bit si possono codificare 232  4.294.967.296 numeri

Le CPU si distinguono anche in base alla dimensione massima dell’informazione che riescono a trattare con una singola istruzione; esistono CPU in grado di trattare dati a 8, 16, 32 e 64 bit, secondo le loro caratteristiche costruttive. Nei calcolatori, per ragioni storiche, il byte è stato assunto come unità di misura della capacità di memoria ed è anche la minima unità di memoria indirizzabile, ovvero avente un indirizzo proprio; se associamo un simbolo ad ognuno dei 256 valori, l’insieme dei simboli utilizzati costituisce un alfabeto. È necessario però accordarsi su come associare una specifica configurazione di un byte (ad esempio, 10111001) a una lettera o a una cifra; questa associazione prende il nome di codifica. L’utilizzo di una codifica è necessario per la comunicazione tra l’uomo e la macchina: il codice stabilisce una corrispondenza tra il numero binario usato dalla macchina e un simbolo, che può essere un carattere alfabetico, un carattere numerico o un qualsiasi elemento simbolico come i caratteri di punteggiatura, le parentesi, le virgolette, i vari tipi di accento o di apice o qualsiasi altro simbolo che si ritenga necessario codificare. Nelle tabelle della Figura 1.31 è possibile vedere una rappresentazione completa del codice ASCII, di come sono associati i simboli con il corrispettivo valore assunto dal byte. L’ASCII è un sistema di codifica dei caratteri a 7 bit suggerito nel 1961 da Bob Berner dell’IBM, poi accettato come standard dalla più importante organizzazione a livello mondiale per la definizione di norme tecniche, l’International Organization for Standardization (ISO: l’ISO 646). La codifica attualmente in uso nella maggior parte dei computer europei prende il nome di ISO-8859-15, derivante dalla codifica ASCII, a cui si è aggiunto un ottavo bit e integrato l’insieme dei caratteri con quelli accentati e caratteri speciali come il simbolo che rappresenta l’Euro, “€” . Nella Figura 1.32 è visibile uno schema che fornisce un esempio di codifica: al codice 01000001, che rappresenta il numero decimale 65, è associata la lettera A (maiuscola) dell’alfabeto, al numero binario immediatamente successivo 01000010, cioè il numero 66 in decimale, la lettera B maiuscola, e così via.

1 Rappresentazione digitale di segnali

31 Fig. 1.31 Esempio di tabelle di codifica utilizzate per la memorizzazione dei dati nei calcolatori. Il codice ASCII viene ricordato per ragioni storiche, la codifica ISO-8859-15 è un esempio di codifica attualmente utilizzata

32

M. Coriasco et al.

Fig. 1.32 Codifica ASCII a 8 bit. Con 8 bit è possibile codificare 256 configurazioni diverse, che sono fatte corrispondere ai caratteri alfabetici e numerici, caratteri speciali come le parentesi e i segni di interpunzione, più un certo numero di caratteri invisibili che codificano determinate azioni. Il 13, per esempio, corrisponde al ritorno carrello (a capo), il 7 al suono di un campanellino, ecc. Questo tipo di codifica viene ricordato per ragioni didattiche e storiche, avendo subito nel corso del tempo numerose evoluzioni per meglio rispondere a più moderne esigenze di codifica

Sono stati sviluppati altri tipi di codifica in grado di supportare i simboli presenti in altre lingue ed è quindi divenuto possibile visualizzare su un computer i caratteri giapponesi, cinesi o russi. Il byte è l’unità di misura della capacità di memoria di un calcolatore, ma sempre più comunemente si sente parlare dei multipli del byte, il kilobyte, il megabyte, il gigabyte e, ultimamente, il terabyte e lo zettabyte. Per motivi storici e ancora oggi in alcuni ambiti, i multipli del byte sono calcolati come multipli di 210, pertanto 1024 byte corrisponde a 1 KiB, 1024 KiB sono 1MiB, 1024 MiB sono 1GiB, dove la i esplicita che si tratta di prefissi binari; nel Sistema Internazionale, in cui i multipli del byte seguono il sistema di numerazione decimale, un insieme di 1000 byte corrisponde a 1 KB, un insieme di 1000 KB corrisponde a 1 MB, e via di seguito. Questa duplice dizione porta spesso a fraintendimenti, per esempio i supporti magnetici esprimono la propria capacità in termini di MB (2 MB  2.000.000 byte), mentre i sistemi operativi esplicitano tale capacità in MiB (2 MiB  2.097.152 byte); occorre pertanto porre attenzione a quale dei due casi ci si riferisca. La memoria centrale (RAM) presenta due caratteristiche fondamentali: è molto efficiente quando è necessario recuperare un dato, ma il suo contenuto si perde nel momento in cui viene meno l’alimentazione elettrica. Per rendere i dati persistenti allo spegnimento del calcolatore, per poterli elaborare in tempi differenti, o anche solo per preservare i risultati di un’elaborazione complessa,

1 Rappresentazione digitale di segnali

33

Fig. 1.33 In a è rappresentato un hard-disk per la memorizzazione dei dati in un calcolatore. Quello rappresentato è formato da due piattelli di cui vengono utilizzate entrambe le superfici. Si noti nella fotografia a destra la testina di lettura/scrittura dei dati. L’indirizzamento dei dati avviene facendo spostare la testina sulla superficie del disco che ruota a grande velocità (fino anche a oltre 20000 giri al minuto). Il reperimento del dato è più lento rispetto a quello della memoria RAM, ma i dati sono permanenti. In b sono visibili vari circuiti integrati di memoria RAM per la memorizzazione temporanea dei dati nei calcolatori. Ognuno dei circuiti contiene una gran quantità di cellette nelle quali è possibile memorizzare l’insieme di bit dato dalle tabelle di codifica e singolarmente indirizzabile dalla CPU. Il reperimento del dato è più veloce rispetto a quello degli hard-disk, ma si perdono i dati quando viene spenta la macchina (memoria volatile)

sono stati concepiti i supporti di memorizzazione magnetica, detti anche hard-disk. Il calcolatore può riversare parte della sua memoria centrale, scrivendo l’informazione sui dischi sfruttando le caratteristiche dei materiali magnetici, dati che saranno in una certa misura stabilmente disponibili nel tempo, avendo avuto cura di scriverli con rigore e ordine. La peculiarità dei supporti magnetici è di mantenere l’informazione scritta anche in assenza di alimentazione elettrica e di consentire il reperimento dell’informazione nel momento in cui è necessario disporne per una successiva elaborazione. Nella Figura 1.33 sono stati riprodotti alcuni strumenti atti a memorizzare i dati, un supporto magnetico (hard-disk) per la memorizzazione non volatile, e dei moduli RAM.

Letture consigliate Brookshear JG (2007) Informatica. Una panoramica generale. Pearson Curtin DP, Foley K, Sen K, Morin C (2012) Informatica di base. Quinta edizione, McGraw-Hill Sciuto D, Buonanno G, Mari L (2008) Introduzione ai sistemi informatici. McGraw-Hill Companies Stallings W (2004) Architettura e organizzazione dei calcolatori. Pearson Italia Tanenbaum AS (2006) Architettura dei calcolatori: Un approccio strutturale, quinta edizione. Pearson - Addison Wesley

34

ESERCIZI

Esercizi 1) Indicare tra le seguenti la caratteristica comune a tutti i segnali: a) sono dotati di algoritmi di correzione per recuperare gli errori di trasmissione b) diventano stazionari se trasmettono onde quadre digitali c) i segnali, in funzione di una variabile spaziale o temporale, portano informazioni riguardanti lo stato di qualche particolare fenomeno fisico dal quale provengono d) conservano i dati in modo deterministico o stocastico 2) Indicare tra i seguenti comportamenti quello che caratterizza un sistema: a) è sempre dotato di algoritmi di correzione per recuperare gli errori di trasmissione b) risponde alle sollecitazioni prodotte dai segnali in ingresso rispondendo in uscita con un determinato comportamento c) porta informazioni riguardanti lo stato di un fenomeno fisico da cui proviene d) genera sempre in uscita un segnale con caratteristiche simili a quello ricevuto in ingresso 3) Indicare quale tra le seguenti caratteristiche di un segnale è corretta: a) è una grandezza fisica variabile nel tempo b) è una grandezza fisica variabile nello spazio c) è una grandezza fisica variabile nel tempo, nello spazio o in una loro combinazione d) in ambito medico è sempre un vettore di coordinate cartesiane 4) Un segnale digitale è un segnale: a) a valori continui e a variabile continua b) a valori finiti e a variabile discreta c) a valori finiti e a variabile continua d) a valori continui e a variabile discreta 5) Facendo riferimento allo schema in figura, dopo aver abbinato a ciascun tipo di segnale la corretta forma d’onda, indicare quale tra esse può rappresentare un segnale digitale: a) 3, freccia rossa; 1, freccia blu; 2, freccia gialla; 4, freccia verde; 2 b) 2, freccia rossa; 4, freccia blu; 3 freccia gialla; 1, freccia verde; 3 c) 4, freccia rossa; 1, freccia blu; 2, freccia gialla; 3, freccia verde; 4 d) 3, freccia rossa; 1, freccia blu; 2, freccia gialla; 4, freccia verde; 1

ESERCIZI

35

6) Indicare qual è la funzione di un trasduttore nella fase di rilevamento in un sistema di acquisizione: a) fornire in uscita una grandezza chimica di valore proporzionale a quello della grandezza fisica ricevuta in ingresso b) fornire in uscita una grandezza elettrica di valore proporzionale a quello della grandezza fisica ricevuta in ingresso c) fornire in uscita una grandezza fisica di valore proporzionale a quello della grandezza elettrica ricevuta in ingresso d) nessuna delle precedenti, non esiste fase di rilevamento in un sistema di acquisizione 7) Nel sistema di acquisizione, lo scopo dell’operazione di condizionamento è: a) amplificare e filtrare il segnale proveniente dal trasduttore per renderlo meno sensibile al rumore b) amplificare e filtrare il segnale da inviare al trasduttore per renderlo più lineare e preciso c) amplificare e filtrare il segnale proveniente dal mondo esterno per renderlo sensibile al rumore d) nessuna delle precedenti, non esiste fase di condizionamento in un sistema di acquisizione 8) L’operazione di multiplexing nel sistema di acquisizione ha lo scopo di: a) utilizzare più circuiti di campionamento da collegarsi uno alla volta a un unico trasduttore b) utilizzare più trasduttori per collegarli a più circuiti di campionamento c) collegare più trasduttori, ciclicamente e uno alla volta, ad un unico circuito di campionamento d) nessuna delle precedenti, non esiste fase di multiplexing in un sistema di acquisizione

36

ESERCIZI

9) Nel sistema di acquisizione, il circuito di “Sample and Hold” serve: a) ad amplificare e filtrare il segnale proveniente dal trasduttore per renderlo sensibile al rumore b) a prelevare e mantenere stabile il segnale per il tempo necessario alla sua digitalizzazione c) a digitalizzare il segnale mantenendolo stabile per il tempo necessario al campionamento d) nessuna delle precedenti, non si trova un simile circuito nel sistema di acquisizione 10) Nel sistema di acquisizione, indicare la funzione del convertitore digitale/analogico (DAC): a) riceve in ingresso il segnale analogico e lo converte in valori numerici digitali proporzionali b) riceve in ingresso il segnale digitale e lo converte in valori analogici c) amplifica e filtra il segnale proveniente dal mondo esterno per renderlo sensibile al rumore d) nessuna delle precedenti, non si trova un simile circuito nel sistema di acquisizione 11) Nel sistema di distribuzione, la funzione della conversione è: a) riconvertire in forma analogica un flusso digitale di dati b) ricevere in ingresso il segnale analogico e convertirlo in valori digitali c) amplificare e filtrare il segnale proveniente dal mondo esterno per renderlo sensibile al rumore d) nessuna delle precedenti, i dati sono inviati al de-multiplexing senza essere convertiti 12) Indicare la definizione corretta di “risoluzione di una misura”: a) minima variazione della grandezza fisica misurata rilevabile da uno strumento di misura b) errore commesso durante la lettura di una misura c) errore commesso dal trasduttore nel rilevare la grandezza elettrica dall’esterno d) intervallo di variazione dei valori della grandezza fisica rilevabili da uno strumento di misura 13) Un trasduttore è uno strumento che: a) fornisce in uscita una grandezza elettrica di valore proporzionale alla grandezza fisica osservata, o che pilotato da un segnale elettrico produce in uscita un fenomeno fisico percepibile dai sensi b) appartiene alla catena di elaborazione delle immagini c) riceve in ingresso un’onda luminosa e la ribalta sulla pellicola da impressionare d) fornisce in uscita una grandezza elettrica di valore inversamente proporzionale alla grandezza fisica osservata

ESERCIZI

37

14) Cosa significa compiere un campionamento su un segnale continuo x(t)? a) estrarre dal segnale stesso i valori che esso assume a determinati istanti di tempo, multipli di un certo intervallo di tempo T detto intervallo di campionamento b) estrarre dai valori dell’intervallo di campionamento gli istanti di tempo t, multipli del segnale, detti istanti di campionamento c) fargli perdere gran parte dei dati, al punto da ricostruire con difficoltà il segnale originario d) estrarre dai valori degli istanti di tempo t alcuni multipli del segnale, detti valori di campionamento del segnale digitale 15) Che cosa permette l’analisi di Fourier? a) estrarre dal segnale i valori che esso assume a determinati istanti di tempo, multipli di un certo intervallo di tempo T detto intervallo di campionamento b) far diventare un segnale da stazionario a multifrequenza c) scomporre il segnale nelle sue infinite componenti sinusoidali, moltiplicate per un opportuno coefficiente, ciascuna di esse dotata di una certa fase, una certa frequenza d) campionare un segnale digitale 16) Quale informazione è possibile ricavare tra l’altro dal teorema del campionamento? a) individuare la minima frequenza con la quale campionare un segnale analogico senza che si verifichi perdita di informazione b) individuare la metà della frequenza dello spettro di Fourier c) eliminare le componenti a frequenza doppia del segnale originario d) individuare il minimo campione a cui analizzare un segnale analogico senza che si verifichi perdita di segnale 17) L’aliasing è un fenomeno che si evidenzia in presenza di una frequenza di campionamento: a) elevata b) media c) insufficiente rispetto alle frequenze massime componenti il segnale d) sufficiente rispetto alle frequenze componenti il segnale 18) Il convertitore analogico/digitale è un circuito elettronico che: a) riceve in ingresso un segnale elettrico digitale e ne fornisce una rappresentazione numerica proporzionale b) riceve in ingresso un segnale elettrico variabile con continuità e ne fornisce una rappresentazione numerica proporzionale c) riceve in ingresso un’onda luminosa e ne fornisce una rappresentazione numerica proporzionale d) riceve in ingresso un segnale elettrico variabile con continuità e ne fornisce una rappresentazione elettrica

38

ESERCIZI

19) Un’immagine è: a) una distribuzione bidimensionale di valori di luminosità e di colore b) una distribuzione di luce c) un insieme di punti nello spazio d) una distribuzione bidimensionale di elementi strutturanti 20) Togliendo l’alimentazione elettrica, la memoria centrale di un elaboratore: a) recupera i dati dopo la reintegrazione dell’alimentazione b) diventa stazionaria c) perde i dati d) conserva i dati 21) Sul BUS circolano: a) solo indirizzi b) informazioni quali indirizzi, segnali di controllo e dati c) solo dati d) variabili analogiche 22) L’ algoritmo è costituito da: a) un insieme finito di passi per risolvere tutti i problemi dello stesso tipo b) un software applicativo c) un insieme di passi per la conversione analogico-numerica d) un insieme finito di passi per risolvere un problema 23) Un linguaggio di programmazione traduce: a) l’algoritmo nel corrispondente programma b) le istruzioni assembly in istruzioni macchina c) il livello gerarchico in quello paritetico d) i file in valori aleatori 24) Determinare il valore del numero binario 1 1 1 0 1 0 0 0 1 25) Sapendo di utilizzare il codice ASCII esteso (8 bit), calcolare l’occupazione in byte di un testo di 50 righe con 80 caratteri (spazi compresi) 26) Dato un segnale elettrico variabile tra 2V e 15,2V, supponendo un passo di discretizzazione di 0,1V, determinare il numero di valori digitali attesi in uscita 27) La risoluzione di uno strumento quantifica: a) un segnale elettrico b) un segnale digitale c) l’inverso dell’errore commesso nell’approssimare il valore reale della grandezza misurata d) l’errore commesso nell’approssimare il valore reale della grandezza misurata

ESERCIZI

28) Un sistema per il trattamento digitale dei segnali è composto da sottosistemi connessi in sequenza: a) acquisizione-distribuzione-elaborazione b) distribuzione-elaborazione-acquisizione c) acquisizione-elaborazione-distribuzione d) elaborazione-acquisizione-distribuzione 29) Nei segnali a valori continui e variabile discreta: a) la variabile indipendente assume valori in un sottoinsieme finito dei valori reali, mentre la variabile dipendente assume valori reali b) la variabile dipendente assume valori in un sottoinsieme finito dei valori reali, mentre la variabile indipendente assume valori reali c) la variabile dipendente assume valori digitali, mentre la variabile indipendente assume valori reali d) il segnale assume valori in un sottoinsieme finito dei valori naturali, mentre la variabile indipendente assume valori reali 30) Descrivere cosa ci si può aspettare se si effettua il campionamento della banda udibile con una frequenza di 4 KHz, tenuto conto che l’orecchio è in grado di percepire da alcuni Hz fino a poco più di 20 KHz 31) Nella memoria centrale di un elaboratore sono presenti: a) solo il programma b) solo i dati opportunamente organizzati c) dati di input e programma e) dati e programmi 32) Nell’architettura di Von Neumann non è presente: a) CPU b) memoria centrale c) BUS di sistema d) BUS di spedizione 33) Un bit è in grado di immagazzinare: a) la minima quantità di informazione b) una porzione considerevole di immagine c) un programma per elaboratore d) un set di caratteri tipografici 34) Il codice ASCII consente di: a) codificare i bit presenti sui dischi rigidi b) accedere a un differente livello di programmazione c) stabilire una corrispondenza tra un numero binario utilizzato dalla macchina e un simbolo grafico d) codificare differenti livelli elettrici in numeri

39

40

ESERCIZI

35) Perché a volte ci si può confondere nell’utilizzo corretto dei multipli del byte? a) perché per motivi storici, in alcuni ambiti, i multipli del byte sono calcolati come multipli di 210, e quelli che sarebbero da denominarsi MiB vengono scorrettamente chiamati MB, e viceversa b) perché per motivi storici, in alcuni ambiti, i multipli del byte sono calcolati come multipli di 102, e quelli che sarebbero da denominarsi GiB vengono scorrettamente chiamati GB, e viceversa c) a causa di un uso scorretto delle unità di misura nelle chiavette Flash-USB, che contengono meno memoria di quanto dichiarato d) nessuna delle precedenti, non c’è mai ambiguità se non negli hard-disk (100 Giga = 1024 Mega) 36) Che cosa indica la lettera i nei prefissi utilizzati per i multipli del byte? a) nulla, secondo il sistema internazionale (SI) è sufficiente indicare Giga o Mega come potenze di dieci b) che è necessario convertire dai MB ai GB nelle unità di misura delle chiavette USB c) che si tratta di prefissi binari, che quindi seguono i multipli di potenze di 2 nei prefissi d) nessuna delle precedenti 37) Un MB corrisponde a: a) 1.000.000 byte b) 1.024 KB c) 1.000 KiB d) 1.048.576 byte 38) Un GB corrisponde a: a) 1.000.000.000 byte b) 1.024 KB c) 1.000 MiB d) 1.048.576.000 byte 39) Un kiB corrisponde a: a) 1.000 byte b) 1.024 byte c) 1 kB d) nessuna delle precedenti 40) Cosa indica un QUAD-WORD? a) 1.000 byte b) 1.024 byte c) una sequenza di quattro byte, per un totale di 64 bit d) nessuna delle precedenti

Luce, immagini e visione

2

Indice dei contenuti 2.1 2.2 2.3 2.4 2.5 2.6 2.7 2.8

Introduzione La luce Il principio di indeterminazione Il raggruppamento percettivo Il ricevitore occhio Proprietà della visione Il colore Considerazioni finali Esercizi

2.1 Introduzione Un’immagine è la rappresentazione grafica di una scena tratta dalla realtà, oppure di un fenomeno di qualsiasi natura, nonché del risultato di una modellazione o simulazione di un evento. Una sommaria classificazione delle immagini è la seguente: • immagini reali: sono rilevabili direttamente dall’ambiente; un esempio è quello delle immagini derivanti da riprese video-fotografiche; • immagini scientifiche: definiscono l’evoluzione della distribuzione spazio-temporale di grandezze fisiche, ad esempio la temperatura, la pressione, il potenziale elettromagnetico, il legame chimico, le radiazioni; • immagini sintetiche: sono costituite dalla rappresentazione grafica di funzioni matematiche di più variabili che modellano un ambiente o un soggetto, ma anche ne simulano il comportamento secondo leggi fisiche o di fantasia. Le immagini possono essere bi- e tridimensionali, per le quali si utilizza generalmente la notazione f ( x,y,  ,t) e f( x,y,z,  ,t), in cui x, y, z rappresentano le variabili spaziali,  è la lunghezza d’onda della radiazione e t il tempo in cui viene effettuata l’acquisizione. L’immagine digitale in diagnostica per immagini. Mario Coriasco, Osvaldo Rampado, Nello Balossino, Sergio Rabellino DOI: 10.1007/978-88-470-5364-9_2 © Springer-Verlag Italia 2013

41

42

M. Coriasco et al.

Quando la distribuzione f ( x,y,z) varia con continuità, cioè assume valori reali nelle variabili indipendenti x, y, z e nei valori assunti dalla funzione, si parla di immagini analogiche; se invece le variabili e la funzione assumono solo valori discreti, cioè interi, l’immagine è detta numerica (o anche digitale). Nel caso in cui il tempo t non sia indicato, l’immagine sarà di tipo statico, mentre quando il valore di  non è specificato, siamo in presenza di immagini visibili dall’occhio umano. Per procedere nello studio delle immagini è importante conoscere le proprietà fisiche della luce e del colore, come anche le proprietà psicofisiologiche della visione; le informazioni così acquisite possono essere poi proficuamente utilizzate direttamente o indirettamente nella definizione dei sistemi per l’elaborazione delle immagini e nelle tecniche di analisi delle immagini (image analysis).

2.2 La luce La luce può essere considerata sotto un duplice punto di vista: fisico e psicofisiologico. Dal punto di vista fisico si tratta di una forma di energia, interpretata secondo la teoria ondulatoria oppure quella corpuscolare. Per quanto riguarda l’aspetto psicofisiologico, l’energia stimola i recettori dell’occhio umano inviando al cervello segnali che sono opportunamente interpretati. La teoria ondulatoria si basa sulle equazioni di Maxwell: un campo elettrico e uno magnetico, fra loro ortogonali, si propagano lungo una direzione perpendicolare ai campi stessi, con una data velocità (Fig. 2.1). Sono di fondamentale importanza alcuni parametri che caratterizzano l’onda il cui andamento è sinusoidale (ci si riferisce in genere al campo elettrico) e cioè: Fig. 2.1 Luce come onda elettromagnetica

2 Luce, immagini e visione

43 Fig. 2.2 Lunghezze d’onda della radiazione elettromagnetica

• il periodo T: tempo impiegato a compiere una oscillazione, si misura in secondi; • la frequenza f: è definita dal numero di oscillazioni al secondo e si misura in Hertz, vale la relazione f  1/T; • la lunghezza d’onda λ: è la distanza percorsa, espressa in nanometri, in un periodo di oscillazione, cioè la distanza fra una cresta e la successiva. È legata alla velocità di propagazione c dalla relazione   cT  c/f. Nella teoria corpuscolare la luce è invece un insieme di fotoni cioè pacchetti di energia con valore: hc E  dove  è la lunghezza d’onda della radiazione e h è la costante di Planck (6,63 10–34 J s). Le lunghezze d’onda dello spettro elettromagnetico sono riportate in Figura 2.2; quelle del campo visibile spaziano dai 380 nm (1 nm  10–9 m, luce ultravioletta) fino a 760 nm (luce rossa). Al di sotto dei 380 nm ci troviamo nella zona degli ultravioletti, al di sopra dei 760 nm in quella degli infrarossi. Dal punto di vista psicofisiologico si definisce luce la sensazione prodotta dalla radiazione compresa approssimativamente fra i limiti espansi in Figura 2.2; queste vengono percepite dall’occhio come segnali inviati al cervello per essere interpretati come valori cromatici. L’onda elettromagnetica stimola quindi l’occhio umano provocando la sensazione visiva. La luce bianca è la somma del contributo di tutte le frequenze, mentre il nero corrisponde alla mancanza di radiazione. Per scindere le componenti cromatiche della luce bianca è sufficiente realizzarne la dispersione in un prisma ottico; si ottengono in tal modo i colori dell’iride e cioè: rosso, arancione, giallo, verde, azzurro, indaco e viola. L’intensità luminosa è l’energia che una sorgente emette in un secondo; la sua unità di misura è il watt. Occorre però osservare che da un punto di vista fisiologico l’intensità della sensazione luminosa prodotta da una sorgente dipende non solo dall’energia emessa ma anche dalla forma e dimensione della sorgente nonché dal colore della luce.

44

M. Coriasco et al.

Per esempio, l’occhio giudica più luminosa la debole radiazione emessa da un fiammifero piuttosto che quella di un blocco di ferro portato all’incandescenza, ed è chiaro che nel caso del blocco di ferro l’energia emessa è notevolmente maggiore. Per tenere in considerazione la risposta dell’occhio umano ai fenomeni luminosi, si introducono le grandezze fotometriche. La candela è l’intensità luminosa in una data direzione di una sorgente che emette una radiazione monocromatica di frequenza 540 1012 Hz e che ha un’intensità di radiazione in quella direzione di 1/683 watt per steradiante, cioè per unità di angolo solido. L’intensità luminosa di una sorgente sarà quindi definita come numero intero o frazionario della candela. La gamma delle intensità luminose in grado di stimolare l’occhio è enorme; la luce più intensa che si può vedere senza offesa fisica o dolore è miliardi di volte più intensa della luce visibile più debole. Per poter manipolare più agevolmente l’ampia gamma dell’intensità della luce si introduce il decibel definito come: dB  10 log(I/I0) dove I0 è l’intensità luminosa di riferimento standard che per convenzione è assunta pari a 10-6 candele/m2 e I è l’intensità luminosa presa in considerazione. Ciò significa che se un’intensità luminosa I è di 60 decibel il suo valore è un milione di volte maggiore di quello di riferimento I0. In Tabella 2.1 sono presi in considerazione alcuni valori di intensità luminosa e i corrispettivi decibel. La Tabella 2.2 fornisce inoltre un’idea immediata sugli ordini di grandezza di alcune comuni intensità luminose. Il flusso luminoso di una sorgente supposta puntiforme è il prodotto tra la sua intensità luminosa I e l’angolo solido Ω avente il vertice nella sorgente stessa:

 IΩ Tabella 2.1 Valori di intensità luminosa e i corrispettivi decibel I/I0 0,0001 0,001 0,01 0,032 0,10 0,13 0,16 0,20 0,25 0,32 0,40 0,50 0,63 0,79 1,00

dB

I/I0

dB

40 30 20 15 10 9 8 7 6 5 4 3 2 1 0

100000,0 10000,0 1000,0 31,60 10,00 7,90 6,30 5,00 4,00 3,20 2,50 2,00 1,60 1,30 1,00

40 30 20 15 10 9 8 7 6 5 4 3 2 1 0

2 Luce, immagini e visione

45

L’unità di misura è il lumen (lm) che rappresenta il flusso luminoso emesso entro l’angolo solido di uno steradiante da una sorgente puntiforme avente l’intensità di una candela. La quantità di luce (Q) emessa da una sorgente puntiforme è il prodotto del flusso luminoso per il tempo t durante il quale viene emesso, cioè: Q  t L’unità di misura del flusso luminoso è il lumen per secondo (lm/s), che rappresenta la quantità di luce emessa in un secondo entro l’angolo solido di uno steradiante da una sorgente puntiforme avente l’intensità di una candela. L’illuminamento E è l’effetto dell’incidenza di un fascio di luce sopra una superficie ed è definito dal rapporto tra il flusso luminoso incidente uniformemente su una data superficie e l’area S della superficie stessa:

E S si misura in lux, definito come l’illuminamento prodotto su una superficie di un metro quadro sulla quale incide uniformemente il flusso di un lumen (Fig. 2.3). Tabella 2.2 Ordini di grandezza di alcune comuni intensità luminose Intensità

Correlati psicologici

160 140 120 100 80 60 40 – 20 0

– – Soglia del dolore, sole – Carta bianca in luce media Schermo televisivo – Luce minima per la visione del colore – Soglia di visibilità per l’occhio adattato all’oscurità Fig. 2.3 Rappresentazione grafica del modello per la valutazione dei lux

46

M. Coriasco et al.

Se la sorgente non è puntiforme ma estesa si introduce il concetto di luminanza L (o brillanza), definita come il rapporto tra l’intensità luminosa I emessa da una sorgente estesa in direzione normale a un elemento di superficie e l’area S dell’elemento considerato, cioè: I L S L’unità di misura è il nit, che rappresenta la luminanza di una sorgente estesa avente l’intensità di una candela per ogni metro quadro di superficie emittente in direzione perpendicolare alla superficie stessa.

2.3 Il principio di indeterminazione La progettazione di interfacce per dispositivi informatici, così come l’analisi di documenti video-fotografici, richiede conoscenze che permettano di valutare e interpretare una distribuzione spazio-temporale di dati che sia in grado di produrre un’immagine (visibile o latente); è pertanto necessario prendere in considerazione temi legati alla psico-fisiologia della visione. In generale, la visione fornisce informazioni utili all’osservatore per svolgere attività di vario tipo; si può citare come esempio la scelta dei movimenti necessari per interagire con un dato ambiente oppure l’estrazione di caratteristiche sugli oggetti, o ancora eventi che compaiano in una scena (come nel caso di immagini radiografiche o tomografiche) al fine di dar vita a una eventuale successiva analisi, classificazione o anche descrizione. Il sistema visivo umano (occhio-cervello) si basa su un insieme di complessi processi non ancora completamente noti, che rende disponibile all’osservatore un mondo percepito, in quanto frutto dell'elaborazione da parte del cervello degli stimoli sensoriali esterni. Si tratta di realtà percettiva che appare all’individuo in termini immediati e diretti ed è detta realtà fenomenica; questa può essere tuttavia ben diversa dal mondo reale, cioè dalla realtà fisica. In altri termini, la percezione visiva soffre di limiti che possono essere fonte di interpretazione notevolmente diversa della realtà. Le discrepanze possono manifestarsi in forme diverse.

Fig. 2.4 Effetto Kanizsa

2 Luce, immagini e visione

47 Fig. 2.5 Quadrato di Mach

Un esempio tipico è quello dell’effetto Kanizsa (Fig. 2.4), in cui vi è presenza dell’oggetto fenomenico (il triangolo bianco) ma non di quello fisico. Un altro esempio classico è costituito dal cosiddetto quadrato di Mach (Fig. 2.5); le due forme, pur essendo geometricamente identiche, all’osservatore possono apparire diverse per forma e dimensione. La differenza percepita è imputabile al tipo di rappresentazione della forma da parte del sistema visivo. Se a livello retinico fosse acquisita come immagine fotografica, potrebbe godere della proprietà di invarianza per rotazione e non si rileverebbe alcuna differenza. Diversa è la situazione se l’acquisizione è legata agli assi cardinali dello spazio percettivo. A sinistra della figura, il quadrato ha gli angoli retti e i lati sono vincolati all’allineamento verticale e orizzontale degli assi cartesiani; a destra ciascun angolo appare come una punta di ampiezza non ben definita, orientata in una delle direzioni cardinali e i lati appaiono vincolati alle diagonali. Il quadrato è allora generalmente percepito in modo diverso rispetto al caso precedente. Il quadrato di Mach costituisce un efficace esempio di percezione non veridica. La forma di destra si apprezza più grande di quella di sinistra: la dimensione percepita dipende verosimilmente dall’ingombro dei descrittori salienti della forma, vale a dire quelli allineati con gli assi cardinali (cioè lati a sinistra e diagonali a destra). Nel quadrato di Mach si produce quindi un’illusione della valutazione della grandezza. Le illusioni visive rivestono notevole interesse perché dimostrano come la percezione non sia sempre perfettamente aderente alla realtà. Alcune illusioni dipendono dalla natura dei meccanismi sensoriali, altre dal modo in cui il sistema visivo utilizza l’informazione ottica per fornire all’osservatore una rappresentazione dell’ambiente. Nel caso sia necessario valutare il contenuto semantico di un’immagine, occorre porre molta attenzione e considerare la possibile presenza di un’illusione visiva. Nella Figura 2.6 proponiamo come esempio l’illusione di Hering in cui le linee parallele orizzontali sono percepite convesse per effetto del contesto in cui sono inserite. Il passaggio dal mondo fisico reale all’informazione ottica, catturata con opportuno dispositivo, costituisce una trasformazione (il mapping anglosassone) di tipo distruttivo che produce una indeterminazione. Questa può essere di tipo: • fotometrico: si genera confusione fra componenti che nel mondo fisico sono ben separate e cioè, rispettivamente, dell’illuminazione e delle proprietà delle superfici;

48

M. Coriasco et al.

Fig. 2.6 Illusione di Hering

Fig. 2.7 Stesso livello di luminanza al variare della riflettanza e dell’illuminazione

• geometrico: eliminazione dell’informazione sulla profondità per effetto della riduzione del numero di dimensioni dello spazio entro cui si collocano rispettivamente gli oggetti e le corrispondenti immagini (da tridimensionale a bidimensionale). Appare evidente il significato di indeterminazione: data un’immagine retinica e la sua rappresentazione in codice neurale, non è possibile ricostruire in modo certo cosa l’abbia determinata. L’inverso, ovvero il passaggio da informazione ottica a mondo percepito, è una trasformazione ricostruttiva in cui il sistema visivo cerca di recuperare le proprietà del mondo fisico non veicolate dai raggi di luce. L’esempio che segue illustra il caso più semplice di indeterminazione fotometrica in ambito acromatico: è coinvolta la reciprocità tra l’intensità dell’illuminazione I e la percentuale di luce riflessa da una superficie con intrinseche proprietà fisiche, detta riflettanza. È importante che l’occhio riesca a discriminarla in quanto fornisce indicazioni sulla natura dell’oggetto (per esempio gesso, foglio di carta, carbone). La quantità di luce che raggiunge l’occhio è però la luminanza L che non è in corrispondenza biunivoca con la riflettanza. In Figura 2.7, la stessa luminanza L (indicata con 40 unità) può corrispondere a tre diversi prodotti rI: il 20% di 200 unità di illuminazione, il 40% di 100 oppure l’80% di 50. Ne segue che è indeterminato il valore acromatico: la superficie potrebbe essere

2 Luce, immagini e visione

49 Fig. 2.8 Indeterminazione geometrica di tipo radiale. a, visione bidimensionale; b, visione prospettica; c, visione lineare

bianca (riflettanza elevata, superiore a 80%), grigia (riflettanza intermedia) oppure nera (riflettanza bassa, inferiore al 5%) e il nostro occhio non saprebbe in quale caso ci troviamo. Per quanto riguarda l’indeterminazione geometrica, la propagazione rettilinea della luce fa sì che allo stesso angolo ottico corrispondano diverse combinazioni di grandezza dell’oggetto e distanza dal punto di vista o anche di forma e inclinazione rispetto all’asse dello sguardo; tali combinazioni sono classificabili come indeterminazione radiale (Fig. 2.8). L’indeterminazione radiale svanisce quando si disponga di almeno due immagini della scena riprese con diversa angolazione (la visione binoculare umana di un soggetto sano) oppure di informazioni aggiuntive.

2.4 Il raggruppamento percettivo Il sistema visivo mostra un comportamento in cui tende a raggruppare oggetti simili e/o vicini come se appartenessero a una sola entità; si tratta di un processo di unificazione del campo percettivo. Questo comportamento, indicato dalla Gestalt, scuola di psicologia tedesca, tende a considerare l’interezza più che le singole componenti: l’intero è più che la somma delle parti. Le sei leggi che influiscono sul processo di unificazione sono: 1. vicinanza: all’interno di una scena visiva, sono accorpati gli elementi più vicini tra loro. Nella Figura 2.9 le rette non sono percepite singolarmente ma raggruppate in serie di due; si apprezzano quindi quattro colonne strette e non tre larghe; 2. somiglianza: gli elementi tendono a unificarsi tra di loro se posseggono somiglianza per esempio in forma e grandezza. Nella Figura 2.10 sono percepite, a sinistra colonne alternate di punti e triangoli, mentre a destra risaltano sotto forma di righe. Si può verificare anche il caso di uguaglianza cromatica, come in Figura 2.11;

50

M. Coriasco et al. Fig. 2.9 Percezione delle rette in serie di due

Fig. 2.10 Elementi che si uniscono per somiglianza di forma e grandezza

Fig. 2.11 Elementi che si uniscono per somiglianza cromatica

3. continuità di direzione: una serie di elementi posti uno di seguito all’altro, seguendo un determinato cammino, è percepita come un’unità. In Figura 2.12 possiamo apprezzare come il processo di continuità induca a percepire come veridici il cammino AC e BD; risultano invece meno naturali il cammino AB e CD. Un esempio in ambito biomedico è relativo a un angiogramma in fase arteriosa del circolo posteriore che evidenzia un aneurisma gigante a carico dell’arteria basilare (Fig. 2.13).

2 Luce, immagini e visione

51 Fig. 2.12 Percorsi ambigui

Fig. 2.13 Angiogramma in fase arteriosa del circolo posteriore e ingrandimento al fine di evidenziare i possibili percorsi

A destra è riportato il riquadro ingrandito in cui sono stati evidenziati i possibili percorsi. Percorsi come ab e cd si possono scartare a priori, data l’innaturale angolazione che il vaso dovrebbe assumere, ma non è sempre così agevole e immediato distinguere i percorsi reali da quelli che il nostro cervello percepisce come corretti; 4. chiusura: la visione è predisposta a fornire i dati mancanti al fine di chiudere i contorni di una figura come un’unità: la figura chiusa è quindi favorita rispetto a quella aperta (Fig. 2.14); 5. buona forma o pregnanza: quando figure diverse si uniscono, ciascuna conserva la propria forma. In Figura 2.15, quando le due figure di sinistra vengono unite, la percezione evidenzia, nella figura di destra, un cerchio e un quadrato come se fossero sovrapposti; 6. esperienza passata: la segmentazione del campo è influenzata anche delle esperienze passate ed è favorita la costituzione di oggetti familiari piuttosto che di forme sconosciute. Nella Figura 2.16 si osserva la lettera E nell’insieme di spezzate a sinistra; nel gruppo a destra invece la percezione è meno nitida.

52

M. Coriasco et al. Fig. 2.14 Esempio di chiusura

Fig. 2.15 Esempio di buona forma o pregnanza

Fig. 2.16 Esempio di immagine la cui percezione è influenzata dalle esperienze passate

2.5 Il ricevitore occhio Analizziamo ora sotto il profilo fisiologico come è composto il sistema di visione umano, in particolare l’organo delegato alla rilevazione dell’energia luminosa. Lo schema in Figura 2.17 mostra le componenti più importanti del ricevitore occhio. La parte bianca che ricopre il globo oculare è detta sclera; questa si fonde nella parte anteriore con una membrana trasparente, la cornea. Tra la cornea e l’iride, cioè l’anello muscolare colorato, vi è un’area detta camera anteriore, riempita di una sostanza fluida trasparente che è l’umore acqueo; la zona nera al centro dell’iride è la pupilla. La luce supera la cornea e passa all’interno dell’occhio tramite la pupilla; la quantità di luce è regolata dalla sua dimensione che può essere variata dai muscoli presenti sull’iride. I muscoli circolari dislocati lungo la circonferenza dell’iride permettono con la loro contrazione di restringere la pupilla, mentre i muscoli radiali, che si dirigono come

2 Luce, immagini e visione

53 Fig. 2.17 Il ricevitore occhio nelle sue componenti principali

raggi verso la pupilla, la dilatano. Tali muscoli sono influenzati non solo dall’intensità luminosa, ma anche da stimoli emotivi; è possibile osservare come la pupilla si restringa in situazioni di paura e si dilati per stimoli interessanti. In entrambi gli occhi, le pupille hanno approssimativamente la stessa grandezza e subiscono variazioni contemporanee anche quando una sola delle due è stimolata. Gli occhi sono mossi da tre paia di muscoli antagonisti extraoculari; anche quando non li muoviamo consciamente, questi sono sottoposti a un tremito impercettibile che è fondamentale per una buona visione. Piccoli spostamenti mantengono l’immagine in movimento, cosicché in ciascun istante sono interessate differenti cellule recettive. Nella parte inferiore della sclera vi è la coroide che, ricca di vasi sanguigni, procura le sostanze nutritive per le cellule nervose dell’occhio; il pigmento di cui è dotata permette l’assorbimento della luce diffusa. Lo strato successivo è la retina, in cui avviene la trasformazione in informazione neurale della luce assorbita. Il cristallino, situato subito dietro l’iride, ha una struttura a strati sovrapposti e cresce continuamente; esso può deformarsi sotto l’azione dei muscoli intraoculari. L’area racchiusa tra il cristallino e la retina è detta camera posteriore ed è riempita da una sostanza relativamente densa cioè l’umore vitreo. I raggi luminosi provenienti da sorgenti lontane giungono paralleli alla cornea, subiscono la rifrazione e convergono in un punto detto fuoco, la cui distanza dalla cornea è la distanza focale e dipende sia dalla densità della cornea sia dalla sua convessità. Se consideriamo sorgenti luminose vicine, i raggi di luce tendono a divergere quando arrivano alla cornea; per ovviare a tale inconveniente e far sì che i raggi convergano nel fuoco come nel caso di sorgenti lontane, il cristallino aggiunge al potere della cornea un potere di rifrazione supplementare, ispessendosi quando gli oggetti osservati sono vicini e diventando più sottile quando sono lontani. Il processo di cambiamento di forma del cristallino per mantenere costante la distanza focale è detta accomodazione. L’affaticamento degli occhi è determinato dall’uso dei muscoli intraoculari che deformano il cristallino per permettere l’accomodazione. L’immagine è detta a fuoco quando il punto focale cade sulla retina. L’accomodazione non porta però i raggi paralleli e quelli divergenti a convergere nello stesso punto; il

54

M. Coriasco et al. Fig. 2.18 Il processo di messa a fuoco

punto focale di oggetti molto distanti è sempre un po’ più vicino al cristallino di quello di oggetti molto vicini. Mettere a fuoco un oggetto significa mettere a fuoco l’insieme dei punti luminosi che lo compongono. Schematizziamo il processo di messa a fuoco considerando come oggetto una freccia e rappresentando con un singolo raggio luminoso le due estremità (Fig. 2.18). L’angolo formato da due raggi che si intersecano è detto angolo visivo e varia in modo inverso rispetto alla distanza dell’oggetto, in modo diretto rispetto alla grandezza dell’oggetto. L’angolo visivo più piccolo che può essere visto chiaramente misura l’acuità visiva; può essere controllata mediante una carta ottica costituita da righe di lettere che diventano sempre più piccole. Occupiamoci ora della parte dedicata alla ricezione dell’informazione visiva, ovvero la retina; essa è composta da tre strati di cellule e cioè cellule gangliari, cellule intermedie e cellule recettive. Le cellule recettive che assorbono la luce e la trasformano in informazione neurale sono i coni e i bastoncelli, e costituiscono lo strato più vicino alla coroide; essi formano delle sinapsi con le cellule dello strato intermedio, che provvedono alla raccolta e alla conservazione delle informazioni. Queste, a loro volta, formano delle sinapsi con cellule gangliari, le quali raccolgono l’informazione dallo strato intermedio e la incanalano nel nervo ottico verso lo strato più interno dell’occhio. Gli assoni delle cellule gangliari formano le fibre del nervo ottico che esce dall’occhio in un punto indicato come macchia cieca; esiste quindi una zona del campo visivo in cui l’occhio non percepisce alcun segnale. I bastoncelli hanno soglia bassa, cioè reagiscono in condizioni di luce debole (permettono di vedere di notte, visione scotopica), i coni hanno soglia elevata, cioè sono meno sensibili (visione fotopica). La distribuzione di coni e bastoncelli all’interno della retina non è uniforme ma ha l’andamento descritto nella Figura 2.19. La maggiore concentrazione di coni è al centro della retina, nell’area di maggior acuità visiva con luce buona, detta fovea. Far cadere l’immagine sulla fovea significa utilizzare la visione centrale. In condizioni di luce debole si utilizzano le aree periferiche ricche di bastoncelli; si parla in questo caso di visione periferica. Per quanto riguarda la macchia cieca, non ci si rende conto della mancanza di informazioni poiché quando si osserva il mondo circostante non si vedono “due piccoli buchi neri”; le due macchie, infatti, non coincidono nei due occhi e il cervello interpreta

2 Luce, immagini e visione

55 Fig. 2.19 Distribuzione di coni e bastoncelli all’interno dell’occhio umano

Fig. 2.20 Sensibilità di coni e bastoncelli alle diverse lunghezze d’onda della luce

l’informazione ottenuta dai due occhi integrando le immagini e ricostruendo la parte di immagine mancante. L’uomo possiede circa 6 106 coni e 120 106 bastoncelli, ha una buona visione diurna, una buona acuità e un’adeguata visione notturna. Gli animali notturni, invece, tendono ad avere solo bastoncelli, mentre i predatori hanno occhi con solo coni. A proposito dell’uomo, il numero dei coni e dei bastoncelli fa sì che si possa verificare la situazione in cui si abbia un livello di luce troppo debole per i coni e allo stesso tempo troppo forte per i bastoncelli; in queste situazioni, la visione può essere più difficoltosa rispetto a quanto accadrebbe con una luce un po’ più intensa o un po’ più debole. Questo livello di luce viene raggiunto al tramonto e all’alba (luce crepuscolare) e in tali condizioni di illuminazione la percentuale di incidenti stradali tende, di conseguenza, ad essere maggiore. Coni e bastoncelli rispondono in modo diverso al variare della lunghezza d’onda della luce secondo quanto indicato in Figura 2.20.

56

M. Coriasco et al.

I recettori che permettono di vedere i colori sono i coni; questa particolarità è dovuta al tipo di sostanze fotosensibili di cui sono costituiti. Ciascuno di essi contiene una sola sostanza fotochimica appartenente alle tre colorazioni fondamentali (R  red, rosso; G  green, verde; B  blue, blu) determinando una diversa sensibilità a diversi colori di luce. Le risposte spettrali, cioè la sensibilità in funzione della lunghezza d’onda, sono riportate in Figura 2.20, in cui si mette in evidenza come il picco di risposta di ogni tipo di cono corrisponda a una particolare lunghezza d’onda.

2.6 Proprietà della visione È importante sapere quanto le percezioni visive siano vicine agli stimoli ottici dovuti a eventi reali; in altri termini, occorre sapere come il sistema visivo analizzi i dati presenti in un’immagine e produca informazione. La sensibilità al contrasto dell’occhio, cioè la sua risposta alle variazioni dell’intensità luminosa, è non lineare; per misurarla consideriamo un’area di intensità luminosa I nel cui centro ne sia posta un’altra di intensità I  I (Fig. 2.21). Se si aumenta la differenza I da zero fino a un valore appena percettibile (da un osservatore sottoposto a sperimentazione), la quantità I I detta frazione di Weber si mantiene pressoché costante (pari al 2%), per un notevole intervallo di variabilità di I, escludendo il caso di luminosità molto piccole o molto grandi. Ciò significa che I dipende da I e quindi la risposta dell’occhio è non lineare rispetto a variazioni di luminosità. La grandezza I prende il nome di soglia di contrasto, in quanto rappresenta la minima differenza di intensità luminosa percepibile dall’occhio umano. In realtà, sia la frazione di Weber sia l’intervallo di valori in cui è costante dipendono dalla luminosità dello sfondo dell’immagine osservata. Se si sperimenta con due aree, una di intensità I e l’altra di intensità I I con sfondo I0 variabile, otteniamo la risposta di Figura 2.22a. L’inviluppo delle varie risposte conduce alla situazione di Figura 2.22b. Fig. 2.21 La sensibilità al contrasto

2 Luce, immagini e visione

57 Fig. 2.22 Inviluppo della frazione di Weber

Fig. 2.23 Contrasto simultaneo

Fig. 2.24 Contrasto simultaneofilling-in

La sensibilità al contrasto dipende anche dal contesto in cui sono inseriti gli oggetti (contrasto simultaneo). Osserviamo i quadratini inscritti in Figura 2.23, ognuno dei quali è chiamato obiettivo. Tutti e quattro sono stampati nello stesso modo e riflettono la medesima quantità di luce, cioè hanno la stessa luminosità; poiché sono inseriti in contorni di diversa tonalità di grigio, non ci appaiono con la stessa luminosità in quanto il nostro occhio li recepisce in modo dipendente dall’area esterna, nel senso che sembrano più scuri gli elementi su fondo più chiaro. Riprendiamo ancora in considerazione il contrasto simultaneo: una sfumatura di grigio collocata su sfondo bianco appare più scura della stessa collocata su sfondo nero (Fig. 2.24); ciò potrebbe spiegarsi con il meccanismo di propagazione e omogeneizzazione degli effetti di contrasto (filling-in) entro ogni zona delimitata da bordi netti.

58

M. Coriasco et al. Fig. 2.25 Contrasto simultaneo – filling-in

Fig. 2.26 Contrasto simultaneo

Nella Figura 2.25 l’anello non suddiviso appare pressoché omogeneo; invece, nel caso dell’anello diviso a metà da una linea, la differenza è facilmente osservabile. Il mezzo anello sul bianco appare omogeneamente più scuro dell’altro, come spiegato dal filling-in entro zone delimitate da bordi. Alcuni autori hanno avanzato l’ipotesi della scissione della luminanza in componenti; questa ipotesi sembra essere confermata dalla Figura 2.26, in cui i due quadrati centrali appaiono molto diversi, pur avendo in realtà la stessa intensità fisica: la configurazione complessiva porta a percepire una distribuzione tridimensionale di superfici diversamente illuminate. La soglia di contrasto è correlata inoltre con la frequenza spaziale, che rappresenta la rapidità di variazione di luminosità tra pixel contigui. Per definire la frequenza spaziale ci riferiamo a immagini costituite da reticoli in cui l’intensità luminosa varia in modo sinusoidale lungo la direzione orizzontale con diversa frequenza (Fig. 2.27). L’immagine di sinistra ha un frequenza spaziale minore di quella dell’immagine di destra. La frequenza spaziale del reticolo si misura contando il numero di sinusoidi che cadono in un grado di campo visivo; l’unità di misura è quindi cicli/grado.

2 Luce, immagini e visione

59 Fig. 2.27 La frequenza spaziale

Fig. 2.28 La frequenza spaziale relativa tra osservatore e immagine

Il grado di campo visivo è definito come l’angolo che sottende uno schermo di 1 cm di lato alla distanza D di 57 cm (Fig. 2.28). Si preferisce esprimere la frequenza spaziale in termini di cicli/grado piuttosto che in cicli/centimetro per non dipendere dalla distanza fra osservatore e immagine. Raddoppiando per esempio la distanza, l’angolo visivo si riduce della metà, per cui uno stesso reticolo avrà frequenza spaziale raddoppiata. La frequenza spaziale è correlata al livello di dettaglio presente in un’immagine: a un elevato livello di dettaglio (che determina brusche variazioni di luminosità) corrisponde una frequenza spaziale alta e viceversa. Come esempio classico si pensi a un’immagine costituita da una pagina con caratteri di stampa: la frequenza spaziale sarà molto elevata. Una piccola sfocatura condurrà all’eliminazione delle alte frequenze spaziali con conseguente incomprensione del testo. Uno dei fenomeni più interessanti connessi alle frequenze spaziali è l’effetto Mach che può essere osservato considerando un certo numero di strisce verticali di intensità uniforme che differiscono tra di loro di una quantità costante di intensità luminosa. Nella Figura 2.29, in corrispondenza alle zone di transizione appaiono rispettivamente una zona chiara e una scura: la striscia a sinistra è più chiara, quella a destra è più scura

60

M. Coriasco et al.

Fig. 2.29 Effetto Mach

Fig. 2.30 Andamento della sensibilità al contrasto in funzione della frequenza spaziale

rispetto alla transizione. I bordi che delimitano le fasce sembrano netti e distinti come se un’artista li avesse rimarcati leggermente. La risposta del sistema visivo è riportata in ultimo nel grafico come livello di attività nervosa. Se si ricoprono tutte le fasce, tranne una, questa presenterà un’intensità costante: le bande di Mach non compaiono se si vede una sola striscia. Allo stesso modo prendendo una matita sottile e coprendo il margine tra due bande grigie si elimina l’effetto Mach e si dimostra che la percezione è illusoria. Una buona ragione per spiegare come mai la percezione non debba ricalcare esattamente la realtà consiste nel fatto di poter essere in grado di localizzare i contorni degli oggetti soprattutto se non ci sono differenze notevoli nell’intensità della luce tra un oggetto e le cose che lo circondano. Il fenomeno delle bande di Mach permette di distinguere questi bordi consentendo così l’identificazione degli oggetti visti. L’occhio ha una diversa sensibilità al contrasto relativamente alle diverse frequenze spaziali: è minore alle frequenze alte e basse rispetto a quelle intermedie. L’andamento della sensibilità al contrasto in funzione della frequenza spaziale in Figura 2.30 rappresenta come siano favorite le frequenze centrali. Per effettuare l’esperimento che evidenzia la risposta dell’occhio alle diverse frequenze spaziali si può pensare di presentare a un soggetto un’immagine costituita da sinusoidi

2 Luce, immagini e visione

con frequenza variabile in modo logaritmico lungo l’asse orizzontale da sinistra a destra e aventi un contrasto che varia anch’esso logaritmicamente lungo l’ordinata. Fisicamente, il contrasto è costante a qualsiasi livello dell’ordinata, ma dal punto di vista percettivo si nota una differenza in funzione della frequenza spaziale: quelle al centro sono percepite per contrasti più bassi rispetto alle frequenze spaziali più alte e più basse.

2.7 Il colore Possiamo definire il colore come un fenomeno sia fisico sia psicofisiologico; la percezione del colore dipende, infatti, dalla natura fisica della luce, considerata come un’energia elettromagnetica, dalla sua interazione con i materiali (riflessione, rifrazione) e dall’interpretazione dei fenomeni risultanti da parte del sistema visivo umano; la percezione dell’energia elettromagnetica come luce visibile avviene in un intervallo di lunghezze d’onda comprese fra 380 e 780 nanometri. Al di sotto ci troviamo nella zona degli ultravioletti, al di sopra negli infrarossi. Quando la luce percepita contiene tutte le lunghezza d’onda circa nella stessa quantità, essa appare come acromatica. Una sorgente di luce acromatica appare bianca. La luce riflessa o trasmessa da un oggetto in modo acromatico potrà essere percepita bianca, nera, o a un livello intermedio di grigio. Se gli oggetti riflettono acromaticamente più dell’80% della luce bianca incidente, appaiono bianchi. Quelli che riflettono acromaticamente meno del 3% appaiono neri; livelli intermedi di riflessione acromatica generano vari livelli di grigio. L’unico attributo della luce acromatica è la sua intensità, che è conveniente considerare come compresa fra 0 e 1, con 0 uguale al nero e 1 uguale al bianco. I valori intermedi corrispondono ai livelli di grigio. La percezione della luminosità dipende dalla sensibilità dell’occhio alle varie lunghezze d’onda. La Figura 2.31 mostra l’andamento della curva detta sensibilità spettrale dell’occhio medio normale dell’uomo (curva di luminosità); essa evidenzia che per quanto riguarda la luce del giorno, l’occhio è più sensibile a lunghezza d’onda approssimativamente di 550 nanometri. La sensibilità dell’occhio decresce rapidamente verso la fine dello spettro della luce visibile. Quando la luce percepita contiene lunghezze d’onda in quantità diversa, il colore della luce viene detto cromatico. Un colore percepito generato da un’energia elettromagnetica di una singola lunghezza d’onda dello spettro visibile è monocromatico. Una pura luce monocromatica, tipicamente la luce di un fascio LASER, si trova raramente in pratica. I colori percepiti sono una miscela di diverse lunghezze d’onda. Una luce cromatica viene definita psicofisiologicamente tramite tre grandezze: la tinta (hue), la saturazione e la brillantezza o intensità del colore: • la tinta è il termine che permette di distinguere il “colore” del colore; • la saturazione è la misura del grado con il quale viene diluito il colore con il bianco (rosso, rosa). Un colore puro è saturato al 100%. Quando viene aggiunto del bianco il grado di saturazione decresce; la luce acromatica è saturata allo 0%; • la brillantezza è l’intensità della luce cromatica.

61

62

M. Coriasco et al.

Fig. 2.31 Curva di luminosità

Le componenti fisiche dello spettro corrispondenti alla tinta, saturazione e brillantezza hanno le seguenti interpretazioni: • lunghezza d’onda dominante: è la lunghezza d’onda del picco dello spettro ed è il colore che percepiamo quando osserviamo la luce cromatica; • purezza: corrisponde alla saturazione del colore; essa rappresenta il rapporto fra l’altezza del picco nella lunghezza d’onda dominante e il valore medio dello spettro cioè la luce bianca necessaria per definire il colore; • luminosità: è la quantità di energia luminosa, cioè l’altezza media dello spettro ed è data dall’area sottesa da tutto lo spettro. Poiché fisiologicamente l’occhio contiene tre differenti tipi di coni sensibili al Rosso, al verde (Green) e al Blu, la sensazione della luce bianca può essere prodotta da una qualsiasi combinazione di tre colori. I tre colori RGB vengono detti primari e costituiscono il sistema di colori additivo. Il sistema di colori complementare è detto secondario o sottrattivo ed è costituito dai colori ciano magenta e giallo (CMY). I due sistemi sono mostrati nella Figura 2.32. Il complemento di un colore si ottiene sottraendo al bianco il colore stesso; il ciano è bianco meno rosso, il magenta è bianco meno verde, il giallo è bianco meno blu. Possiamo anche dire che il rosso è il complemento del ciano, il verde del magenta e il blu del giallo. È interessante notare come il magenta non appaia nello spettro dei colori generati dal prisma, per cui esso è solo una creazione del sistema visivo umano. Il sistema visivo umano è capace di distinguere approssimativamente 350 colori; quando il colore differisce solo per la tinta, il sistema visivo può distinguere tra colori con lunghezza d’onda dominanti che differiscono per circa un nanometro nella parte blu-gialla dello spettro. Comunque, vicino agli estremi dello spettro viene richiesta una distanza di circa 10 nanometri. Possono essere distinte circa 128 tinte diverse. Se sono presenti solo differenze di saturazione, l’abilità del sistema visivo nel distinguere i colori è più limitata.

2 Luce, immagini e visione

63 Fig. 2.32 I sistemi di colori

2.8 Considerazioni finali Nel capitolo sono stati presi in considerazione i principali temi che caratterizzano la luce e il sistema visivo umano. La letteratura specifica sull’argomento è molto ampia e il lettore interessato ad approfondimenti può fare riferimento alla bibliografia. Quanto affrontato permette di avvicinarsi all’analisi di un’immagine sapendo quali sono i meccanismi fisici che costituiscono il veicolo che trasferisce una scena presa dalla realtà nel sistema visivo umano. Questo è tutt’altro che un sistema di acquisizione perfetto e proprio per questo sono stati evidenziati alcuni meccanismi di percezione che devono mettere in guardia da una sommaria conclusione nel compiere l’analisi del contenuto di un’immagine.

Letture consigliate Born M, Wolf E (1999) Principles of optics: electromagnetic theory of propagation, interference and diffraction of light. University Press, Cambridge Cahan D (1993) Hermann von Helmholtz and the foundations of nineteenth-century science. University of California Press, Berkley Cornsweet T (1970) Visual perception. Academic Press, New York David L (1970) MacAdam, sources of color science. MIT Press, Cambridge Frova A (2000) Luce colore visione. Perché si vede ciò che si vede. BUR Biblioteca Univ. Rizzoli, Milano

64

M. Coriasco et al. Gerbino W (1977) Manuale di Psicologia, Legrenzi (a cura di). Il Mulino, Bologna Gibson JJ (1950) The perception of the visual world. Houghton Mifflin, Boston Gordon IE (2004) Theories of visual perception. Psychology Press, Hove Hubel D (1995) Eye, brain, and vision. Henry Holt and Company, New York Koffka K (1970) Principi di psicologia della forma. Bollati Boringhieri, Torino Newton I (1704) Opticks: or, a treatise of the reflections, refractions, inflections and colors of light: also two treatises of the species and magnitude of curvilinear figures. Octavo, ©1998, Palo Alto, CA Palladino P (2002) Lezioni di illuminotecnica. Tecniche nuove, Milano Regan D (2000) Human perception objects: early visual processing of spatial form defined by luminance, color, texture, motion, and binocular disparity. Sinauer Associates, Sunderland, NA Rossi M, Moretti A (1998) Sintesi delle immagini per il fotorealismo. Franco Angeli, Milano Turner RS (1994) In the eye's mind. Princeton, Princeton University Press Valdeplanque P (1991) Illuminotecnica. Tecniche nuove, Milano Walsh JW (1958) Photometry. Dover, New York Wolfe WL (1998) Introduction to radiometry. SPIE Optical Press, Washington

ESERCIZI

Esercizi 1) La relazione che lega velocità di propagazione dell’onda elettromagnetica e il periodo è data da: a) =cT b) =cf c) =c/T d) =f/c 2) La porzione di spettro elettromagnetico che interessa le radiazioni visibili cade: a) nell’intervallo 780–980 nm b) nell’intervallo 380–780 nm c) al di sopra dei 1200 nm d) al di sotto dei 780 nm 3) La luminanza si ottiene: a) dividendo il flusso luminoso per l’angolo solido b) dividendo l’intensità luminosa nella direzione di osservazione per l’area proiettata nella stessa direzione c) dividendo l’intensità luminosa per 4 r2 d) dividendo il flusso luminoso per 4 r2 4) La frequenza spaziale rappresenta: a) la rapidità di variazione di luminosità tra pixel contigui b) il numero di pixel compresi in un pollice c) il numero di pixel nelle direzioni x e y del monitor d) il range di variabilità dei valori di luminanza 5) Il sistema di colori primari è costituito dai colori a) RGB b) CMY c) RGY d) CRY 6) La macchia cieca corrisponde: a) al punto di minima acuità visiva b) al punto in cui si ha la diminuzione dei coni c) al punto in cui il nervo ottico si inserisce nella zona dei recettori d) al punto più laterale dell’occhio 7) La sensibilità al contrasto: a) dipende dalla luminosità degli oggetti presenti nella scena b) dipende dal contesto in cui sono inseriti gli oggetti c) è maggiore se gli oggetti sono scuri d) è maggiore se gli oggetti sono chiari

65

66

ESERCIZI

8) La frazione di Weber è: a) variabile a seconda della frequenza spaziale b) sempre uguale al 10% c) circa pari al 2%, per un notevole range di variabilità dell’intensità I d) direttamente proporzionale all’intensità I 9) Un colore è detto puro quando: a) non contiene alcuna miscela dei primari additivi b) non contiene alcuna miscela dei secondari sottrattivi c) è saturato al 100% d) è saturato al 50% 10) La riflessione acromatica compresa fra il 3 e l’80% genera: a) il colore nero b) il colore bianco c) sfumature di grigio d) il colore corrispondente alla lunghezza d’onda considerata 11) La luce è: a) una forma di energia b) il colore bianco c) un insieme di elettroni diretti nello stesso punto d) una forma di trasmissione della potenza 12) Normalmente il mondo percepito in rapporto al mondo reale è: a) identico b) influenzato da fattori percettivi c) influenzato da fattori percettivi e psicologici d) analogo 13) Il raggruppamento percettivo può creare difficoltà nella: a) identificazione di percorsi b) individuazione delle fratture c) percezione delle sfumature di grigio d) visione notturna 14) All’interno dell’occhio umano i bastoncelli reagiscono a: a) condizioni di luce intensa b) lunghezze d’onda al di fuori del visibile (visione infrarossa) c) condizioni di luce debole d) variazioni del calore degli oggetti nel campo di visione 15) All’interno dell’occhio umano i coni: a) hanno una soglia di percezione bassa b) influenzano la visione da lontano

ESERCIZI

67

c) influenzano la visione da vicino d) sono di tre tipi, uno per ogni colore fondamentale 16) Nell’occhio umano: a) il numero di coni è superiore a quello dei bastoncelli b) il numero di bastoncelli è maggiore di quello dei coni c) vi è ugual numero di coni e bastoncelli d) coni e bastoncelli sono addensati nella macchia cieca 17) In a) b) c) d)

condizioni di contrasto simultaneo si possono determinare: errate valutazioni dell’intensità luminosa distorsioni spaziali degli oggetti distorsioni temporali nella percezione dei colori forti emicranie a carico dell’osservatore

18) L’effetto Mach: a) consente di focalizzare al meglio gli oggetti distanti b) interferisce con la percezione dei colori c) influenza la percezione delle discontinuità di luminanza d) è di tre tipi, uno per ogni colore fondamentale 19) Il colore ciano è dato dalla differenza tra: a) rosso-blu b) bianco-rosso c) magenta-blu d) rosso-bianco 20) Ordinare le immagini partendo da quella meno satura a quella con il massimo livello di saturazione

Introduzione all’immagine digitale

3

Indice dei contenuti 3.1 3.2 3.3 3.4 3.5 3.6

Discretizzazione spaziale e quantizzazione L’istogramma dei livelli di grigio Le periferiche di visualizzazione e stampa Il cambio delle dimensioni La valutazione della qualità delle immagini digitali Considerazioni finali Esercizi

3.1 Discretizzazione spaziale e quantizzazione Tutte le immagini digitali sono il risultato di un processo di acquisizione che comprende sempre nelle sue diverse fasi un’operazione di campionamento e una di quantizzazione o conversione analogico digitale, come schematizzato in Figura 3.1. Nell’ambito della fotografia digitale e in quello della radiologia proiettiva, per esempio, il sensore utilizzato è in grado di misurare l’intensità di radiazione luminosa o ionizzante incidente e contestualmente effettua un campionamento il cui passo di discretizzazione dipende dalle dimensioni dei singoli rivelatori che compongono la sua matrice di acquisizione. Tutte le misure vengono poi convertite in dato numerico digitale e attribuite ai valori dei singoli pixel (picture element) dell’immagine. In altri ambiti della radiologia, il processo di formazione dell’immagine è più complesso e coinvolge sofisticate elaborazioni matematiche, ma troveremo comunque una fase di campionamento e quantizzazione del segnale di origine che condizionerà poi il risultato dell’immagine finale. Le immagini digitali che vediamo nella nostra esperienza comune hanno ormai nella maggior parte dei casi dimensioni dei pixel non percepibili a occhio nudo, ma un L’immagine digitale in diagnostica per immagini. Mario Coriasco, Osvaldo Rampado, Nello Balossino, Sergio Rabellino DOI: 10.1007/978-88-470-5364-9_3 © Springer-Verlag Italia 2013

69

70

M. Coriasco et al.

Fig. 3.1 Schematizzazione del processo di acquisizione. L’immagine originale è una funzione continua bidimensionale f (x,y). La rivelazione porta alla trasformazione dell’immagine in un segnale elettrico analogico, del quale, con l’operazione di campionamento, vengono prelevati i valori a intervalli regolari (campioni). Tali valori sono quindi ancora valori reali del segnale elettrico inizialmente misurato. La successiva quantizzazione è l’operazione che approssima questi valori al valore numerico (digitale) e l’immagine, ora numerica, può essere memorizzata su appositi supporti informatici

opportuno ingrandimento può mostrare l’insieme dei pixel come singoli quadratini di colore uniforme che costituiscono ogni dettaglio dell’immagine considerata (Fig. 3.2). La discretizzazione spaziale di un’immagine digitale può essere definita in vari modi. In ambito radiologico, dove le immagini devono preservare l’informazione delle dimensioni fisiche reali e dei rapporti di formato, è frequente l’utilizzo della dimensione fisica del pixel per definire la discretizzazione. Dove invece le dimensioni dei rivelatori e dei pixel dell’immagine non sono direttamente associati a una dimensione reale della scena rappresentata, come nell’ambito della fotografia, si utilizza la dimensione della matrice di rivelazione in termini di righe per colonne o di numero totale di pixel. Ad esempio, una fotocamera da 12 Megapixel potrà avere una matrice di 2848 righe per 4288 colonne, per un totale di 12212224 pixel. In ambito di stampa o di visualizzazione si utilizza invece spesso un’indicazione di discretizzazione spaziale in termini di numero di pixel per una data unità di lunghezza, come ad esempio i dot per inch o point per inch (DPI o PPI, in entrambi i casi punti per pollice, dove un pollice è pari a 2,54 cm) o punti per cm (PPcm). Noti i parametri che definiscono una delle modalità di indicazione della discretizzazione spaziale è facile ricavare le notazioni alternative tramite semplici formule algebriche, come indicato nella Figura 3.3. Nella Figura 3.4 sono riportati alcuni esempi di dimensioni di pixel e di matrici tipiche per alcune tipologie di immagini digitali in ambito

3 Introduzione all’immagine digitale

71 Fig. 3.2 Esempio di digitalizzazione. Con un opportuno sistema di acquisizione capace di compiere la scansione e la rivelazione, si ottiene una funzione bidimensionale (a) che per poter essere elaborata da un calcolatore va campionata nello spazio (griglia di quadrati bianchi, b) e quantizzata in intensità (ogni quadratino di campionamento può assumere solo un numero finito di valori, c). Il risultato finale è l’immagine digitale (d) in basso a destra

Fig. 3.3 Relazioni algebriche che legano i parametri di discretizzazione spaziale di un’immagine digitale

72

M. Coriasco et al.

Fig. 3.4 Parametri di discretizzazione spaziale tipici per alcune modalità di immagini mediche digitali

radiologico. Nella pratica quotidiana, in TC ed RM, sono disponibili anche valori superiori, che vengono utilizzati in caso di esigenze di maggior risoluzione. Per quanto riguarda la quantizzazione dei valori assunti da ciascuno dei singoli pixel occorre invece distinguere tra il caso di rappresentazione a livelli di grigio e rappresentazione a colori. Una volta definita la discretizzazione spaziale, per definire completamente un’immagine digitale occorre attribuire a ciascun pixel un dato numerico. Consideriamo la rappresentazione binaria dei numeri: maggiore è il numero di bit utilizzati, maggiore è il numero di valori diversi codificabili. In pratica, avendo n bit è possibile codificare 2n valori e, quindi, 2n livelli di grigio. Dato 1 solo bit, avremo quindi un’immagine in bianco o nero senza gradazioni intermedie. È questo il caso della quantizzazione adottata dagli apparecchi fax, dove non è di interesse rappresentare le diverse sfumature di grigio di un’immagine, mentre si vuole trasmettere l’informazione testuale o grafica con la minore occupazione possibile della banda telefonica. Con 2 bit saranno possibili 4 livelli e così via, fino ad arrivare a 16 bit con 65536 livelli di grigio. Tale numero è enormemente superiore alle capacità di discriminazione del nostro occhio, che arriva a distinguere contemporaneamente al massimo un numero di livelli di grigio dell’ordine del centinaio, come visto nel capitolo precedente. Una delle motivazioni predominanti per cui viene utilizzato un numero elevato di livelli di grigio risiede però nella possibilità di variare il contrasto della rappresentazione dell’immagine digitale, scegliendo opportunamente la modalità di presentazione a video o in stampa. Se, quindi, il processo di discretizzazione spaziale è legato alla risoluzione dell’immagine prodotta, si può affermare che la quantizzazione è legata al contrasto presente e rappresentabile dell’immagine. Dal punto di vista dei dispositivi che producono l’immagine si può dire che, mentre il rivelatore e le sue dimensioni definiscono le dimensioni dei pixel e quindi la discretizzazione spaziale, la quantizzazione è legata principalmente al convertitore analogico digitale, che imposta un intervallo di valori possibili e la loro ampiezza. Ovviamente, il ruolo svolto dal convertitore AD è comunque condizionato dal segnale di ingresso fornito dal rivelatore, che deve essere di entità adeguata. Nella Figura 3.5 sono rappresentate le unità numeriche in uso per alcune modalità radiologiche con il numero di bit utilizzabile, anche se in realtà negli ultimi anni si è affermato l’utilizzo di 16 bit (due byte) per pixel in tutte le discipline diagnostiche.

3 Introduzione all’immagine digitale

73 Fig. 3.5 Parametri di quantizzazione per alcune modalità di immagini mediche digitali

Per quanto riguarda la rappresentazione digitale di immagini a colori si avrà ancora una quantizzazione dei valori dei pixel, ma con la possibilità di rappresentare i diversi colori e, eventualmente, di combinarli tra loro. Le codifiche dei colori maggiormente utilizzate sono la RGB, la CMYK e la YUV. La codifica RGB è principalmente utilizzata dai dispositivi per i quali la formazione del colore avviene con un processo di tipo additivo, come i monitor, le fotocamere digitali e gli scanner, che trasmettono o assorbono la luce nel loro processo di formazione del colore del pixel. I colori che si osservano sui monitor catodici dei computer, appaiono quando i fasci di elettroni colpiscono i fosfori rossi, verdi e blu dello schermo provocando l’emissione di diverse combinazioni di luce. Il valore del pixel è espresso in questo caso da 3 numeri che rappresentano la quantità di rosso, verde e blu che, addizionati, formano il colore risultante. Per ognuno dei tre colori primari si hanno 256 possibili livelli, per cui sono necessari 8 bit, quindi in totale un pixel con codifica RGB necessita di 24 bit. Le combinazioni possibili sono circa 16 milioni che, per quanto possa sembrare un numero elevato, rappresenta una porzione limitata dello spettro visibile dall’occhio umano. Il processo di stampa delle immagini digitali a colori comporta invece una modalità di formazione del colore di tipo sottrattivo, in quanto ogni inchiostro è in grado di assorbire alcuni colori e di rifletterne altri. Pertanto, la sovrapposizione di più inchiostri darà origine a un colore risultante dalla sottrazione dal bianco dei colori dei singoli inchiostri. La codifica del colore CMYK è basata sui colori complementari al rosso, verde e blu, dati dal ciano (C), dal magenta (M) e dal giallo (Y). Per visualizzare completamente la gamma dei colori generata dalla codifica RGB con le caratteristiche di tonalità degli inchiostri per le stampanti e per evitare che un’immagine in toni di grigio convertita da RGB a CMYK appaia con sfumature rossastre, è stato aggiunto un altro colore, il nero (K, da blacK), che migliora la qualità di stampa. Si hanno quindi 256 livelli per quattro colori, corrispondenti a 32 bit. Le immagini CMYK occupano quindi uno spazio maggiore di quelle RGB, senza peraltro contenere una gamma di colori superiore. Il processo di conversione dalla codifica RGB a quella CMYK è proprio di ciascun software che gestisce la stampa di immagini e deve essere opportunamente tarato per rispettare il più possibile i colori originali. In ultimo, la codifica YUV separa le informazioni di luminanza (Y) e crominanza (UV) di ciascun pixel, decorrelando le informazioni di intensità dalle informazioni relative al colore. Questa codifica è largamente utilizzata negli apparati di trasmissione televisiva e nell’ambito della compressione delle immagini. La separazione delle infor-

74

M. Coriasco et al.

Fig. 3.6 Effetto della ricostruzione di un’immagine quando sia stato ridotto il campionamento della metà a ogni passaggio; notare che a ogni passaggio il fattore di riduzione è 4, dovuto al fatto che operiamo sia sulle righe che sulle colonne

mazioni consente di operare sulla luminanza senza alterare le informazioni cromatiche presenti e viceversa, aspetto fondamentale se si considera che l’occhio umano è meno sensibile alle variazioni cromatiche rispetto alle variazioni di luminosità. Di relativa importanza in ambito medico è anche l’uso della tecnica detta ai falsi colori, che utilizza una corrispondenza biunivoca tra un valore che indica il livello dell’informazione che si vuole rappresentare nel pixel e una tonalità di colore scelta opportunamente. Le immagini in medicina nucleare fanno un uso esteso di questa tipologia di rappresentazione, per cui a un certo numero di conteggi corrisponderà un dato colore. La quantizzazione del valore del pixel è comunque analoga a quella dei livelli di grigio, un solo valore che, a seconda dei casi, può occupare da 8 a 16 bit, con associata una tabella di conversione in tonalità di colori. Il numero di bit che definisce la quantizzazione del pixel viene anche detto profondità del pixel. Oltre alle considerazioni sul numero di tonalità rappresentabili, è bene ricordare che tale parametro è anche correlato allo spazio occupato dall’immagine digitale in termini di quantità di memoria. Convertire da una profondità di 8 bit per un’immagine in scala di grigi a una a 16 bit significa raddoppiare lo spazio occupato dall’immagine sul supporto sulla quale è memorizzata. In alcuni casi, può essere utile o necessario ridurre l’informazione, operazione che può essere realizzata con due diversi metodi: 1. campionamento lasco, in cui non vengono considerati tutti i pixel dell’immagine originale f(x,y) (per esempio uno sì e uno no), ottenendo così un’immagine f (x,y) che ha un minore numero di pixel. Per ricostruire l’immagine originale occorrerà procedere alla replicazione dei pixel mancanti; ciò dà origine però a un indesiderabile effetto mosaico (tassellamento). Supponiamo, per esempio, che l’immagine sia composta da 512 512 pixel; per realizzare un campionamento lasco possiamo considerare solo i pixel delle righe e colonne pari. Questa operazione riduce a ¼ la quantità di spazio necessario per la memorizzazione dell’immagine. Rimuovendo tre pixel ogni quattro, l’occhio non si accorge di questa operazione; quando invece si trascurano più pixel, l’occhio rileva nell’immagine ricostruita f (x,y) la presenza di informazione replicata, evidenziando l’effetto mosaico, come mostrato in Figura 3.6. Aumentando il numero di pixel trascurati si ottiene, pertanto, un notevole effetto di tassellamento che provoca un evidente deterioramento della qualità visiva dell’immagine, sino a renderla non intelligibile. Da quanto detto è chiaro come il campionamento lasco sia un’operazione irreversibile;

3 Introduzione all’immagine digitale

75 Fig. 3.7 La sequenza di immagini riporta quantizzazioni da 256 a 2 livelli di grigio secondo le potenze decrescenti del 2

2. quantizzazione lasca: si agisce sul numero di elementi della matrice che rappresenta la funzione, procedendo con un accorpamento dei livelli di luminanza, diminuendone così il numero; ne segue che saranno necessari meno bit per la codifica. Supponendo di disporre di 256 diversi livelli di luminanza, si possono accorpare i livelli di luminanza, per esempio a due a due, in modo che si dimezzino: dopo questa operazione, sono necessari solo sette bit per la codifica. In fase di visualizzazione, un occhio non esperto potrebbe non accorgersi della differenza. Se continuiamo ad accorpare, per valori superiori a 4, l’occhio incomincia a rilevare che vi è una discontinuità nei valori di luminanza, in quanto diventano evidenti le linee di isointensità dette falsi contorni, come mostrato in Figura 3.7. Se i livelli finali ottenuti nella fase di accorpamento fossero solo due, allora si dice che l’immagine è binarizzata. Ovviamente, si può pensare di considerare assieme le due soluzioni presentate e cioè realizzare un campionamento e una quantizzazione lasca, avendo ben presente quali siano le problematiche introdotte da ciascuno dei due metodi.

3.2 L’istogramma dei livelli di grigio È un importante strumento statistico che permette di visualizzare la distribuzione dei valori dei pixel sulla scala dei grigi; viene costruito rappresentando sulle ascisse l’intero intervallo di livelli disponibile (intervallo dinamico) e in ordinata il numero di pixel appartenenti a ciascun livello. La visualizzazione e l’analisi dell’istogramma possono fornire molte informazioni relativamente all’immagine in esame, come mostrato negli esempi delle Figure 3.8, 3.9 e 3.10. Per esempio, la presenza di uno o più picchi nell’istogramma indica, in

76

M. Coriasco et al.

Fig. 3.8 Radiografia digitale di torace e relativo istogramma dei livelli. In ascissa sono rappresentati i livelli dallo 0 a 255. Nessun pixel possiede livello di grigio inferiore a 18 o superiore 240. Il maggior numero di pixel si distribuisce nei valori che vanno da 140 a 210 circa. Si verifica un picco positivo isolato in corrispondenza del livello 27, dovuto alle parti più scure dell’immagine sopra alle clavicole e ai fianchi del torace, nelle quali il passaggio delle radiazioni in aria non ostacolato dai tessuti ha impressionato maggiormente il piano sensibile

Fig. 3.9 Diversi istogrammi calcolati su porzioni della stessa immagine; importante notare come, restringendo il campo su diverse regioni dell’immagine, l’istogramma varia in base al contenuto. Si osservi come il valore medio della luminanza fornisca un’indicazione della luminosità complessiva. Una particolarità è data invece in a dal piccolo picco positivo nei pressi del valore minimo: esso è dato dal numero di pixel di valore simile che corrispondono alle parti sopra alle spalle, nella quale i raggi x non hanno subito attenuazione significativa e hanno prodotto due aree molto scure

3 Introduzione all’immagine digitale

Fig. 3.10 Radiografie digitali di torace con diverse tipologie di istogrammi. Il pannello a mostra un istogramma esteso sulla quasi totalità dell’intervallo dinamico disponibile e, in effetti, l’immagine presenta un elevato contrasto tra le diverse strutture. L’immagine b ha invece un istogramma a banda limitata e il contrasto dell’immagine risulta ridotto. Le immagini c e d offrono esempi di istogrammi sbilanciati rispettivamente a destra e a sinistra, associati a immagini con livelli prevalentemente chiari e scuri

genere, la presenza di regioni estese aventi livelli di grigio omogenei. In particolare, in un istogramma multimodale con diversi picchi si avrà che il primo sarà associato a una regione estesa di tonalità più scura e l’ultimo a una regione estesa di tonalità più chiara. L’istogramma rappresenta anche un utile strumento per individuare i parametri corretti di post-processing e, successivamente, per valutare il risultato ottenuto tramite elaborazioni. È possibile caratterizzare un’immagine in base alla forma assunta dall’istogramma: • banda limitata: l’istogramma si estende su un sottointervallo di valori; l’immagine presenta un limitato contrasto, tanto più basso quanto più ristretto è l’intervallo (Fig. 3.10b); • sbilanciata a sinistra: l’immagine ha una predominanza di pixel appartamenti a valori bassi, l’immagine corrispondente avrà una prevalenza di tonalità scure (Fig. 3.10d); • sbilanciata a destra: l’immagine ha una predominanza di pixel appartamenti a valori alti, l’immagine corrispondente avrà una prevalenza di tonalità chiare (Fig. 3.10c); • uniforme: tutti i livelli hanno pressoché la stessa rilevanza numerica e l’immagine ha, di conseguenza, in genere un elevato livello di informazione.

3.3 Le periferiche di visualizzazione e stampa L’insieme di dati numerici che costituisce la matrice dell’immagine digitale, per poter essere utilizzato, deve essere inviato a un dispositivo di output, che può essere costituito da un monitor (soft copy) o da una stampante (hard copy).

77

78

M. Coriasco et al.

È importante sottolineare il fatto che, ogni volta che un’immagine digitale viene visualizzata su un monitor o viene stampata, la necessità di dover adattare l’immagine alle capacità di rappresentazione del mezzo può indurre delle alterazioni della discretizzazione spaziale e, quindi, alle dimensioni dei pixel o relativamente al numero di tonalità o livelli di grigio. Ogni dispositivo di output ha, infatti, delle sue caratteristiche di risoluzione e contrasto, ed è fondamentale che esse siano correttamente accoppiate con quelle dei dati in ingresso che costituiscono l’immagine da rappresentare. Il mantenimento dei colori in ambito fotografico prevede, ad esempio, un complesso sistema di gestione con la memorizzazione di tabelle di conversione che descrivono la risposta cromatica di ogni periferica. In ambito radiologico, negli ultimi anni si è assistito progressivamente a una diminuzione dell’utilizzo di immagini stampate su pellicola, sostituite dalla sola visualizzazione a monitor per la fase di refertazione, e dalla consegna al paziente di un supporto informatico (CD o DVD). Per i monitor, attualmente la tecnologia Liquid Crystal Display (LCD) ha definitivamente soppiantato la Cathode Ray Tube (CRT). La “Linea guida per l’assicurazione di qualità in teleradiologia” ISTISAN indica alcuni requisiti minimi che dovrebbero avere i monitor ad alta definizione per stazioni di refertazione: almeno 2K×2K (cioè 4 Megapixel) a colori per tomografia computerizzata (TC) e risonanza magnetica (RM), 3K×3K per radiologia convenzionale e 5K×5K per la mammografia. La luminosità dei monitor deve essere elevata, di almeno 300 cd/m2. Il problema della corretta taratura dei monitor per radiologia e della giusta resa dei livelli di luminanza è stato affrontato nell’ambito dello standard relativo al trattamento delle immagini medicali DICOM. Il documento NEMA specifica una funzione di visualizzazione standard (Grayscale Standard Display Function, GSDF) che ha lo scopo di garantire che, a parità di variazione nei valori digitali, si abbia una costante variazione di luminosità percepita su qualsiasi dispositivo di visualizzazione. In particolare, la GSDF è una funzione basata su di un modello di risposta del sistema visivo umano al variare della luminanza, che pone sulle ascisse i livelli percepibili come differenti e sulle ordinate i livelli di luminanza associati. Quando viene richiesto di visualizzare l’immagine, i valori digitali di ogni pixel vengono convertiti in Digital Driving Levels (DDL), rappresentati poi come livelli di luminanza. La conversione da valore del pixel a DDL può essere modificata in modo da correggere eventuali errori nella luminanza rappresentata rispetto alla risposta attesa. In alcuni casi, per la produzione dell’immagine diagnostica si procede anche alla stampa su supporto. Occorre tener presente che questo dispositivo può introdurre delle variazioni alle proprietà dell’immagine. In ambito medico, le stampanti più diffuse sono di tipo laser con stampa su pellicola, in passato con sviluppo tramite appositi liquidi, e oggi sempre più frequentemente con sviluppo a secco (processo termografico). La risoluzione di queste stampe è mediamente di circa 300 DPI con una dimensione del pixel intorno agli 80 m, che è data dalla sezione del laser che effettua la scansione per impressionare la pellicola. Per alcune applicazioni in cui è richiesta una maggior risoluzione, come per esempio in mammografia, sono state sviluppate stampanti con diametro del laser e quindi dimensioni del pixel dell’ordine di 40 m. Il numero di livelli di grigio è tipicamente di 4096 (12 bit). Anche in questo caso i dati in input saranno legati a quelli rappresentati attraverso la funzione di conversione

3 Introduzione all’immagine digitale

utilizzata per la rappresentazione a monitor, opportunamente adattata per mantenere il più possibile la stessa rappresentazione su stampa. Negli ultimi anni, ai dispositivi tradizionali si affiancano sempre più spesso strumenti di tipo mobile, come i tablet pc e gli smartphone. Pur non raggiungendo la qualità della rappresentazione di un monitor professionale, questi apparati sono sempre più spesso utilizzati in ambito medico, per le caratteristiche di mobilità e semplicità di interazione con l’utente, tramite gli schermi di tipo touchscreen. Gli apparati con display a cristalli liquidi di tipo retina, pur disponendo di una elevata risoluzione (da 230 a 320 ppi a seconda dei modelli), sono in grado di rappresentare al massimo una profondità di luminanza di 8 bit, ancora molto lontani dai 12 bit dei monitor professionali. Non sono quindi un sostituto dei monitor tradizionali, quanto un’integrazione nel contesto dei sistemi informativi ospedalieri. Le nuove tecnologie in fase di sviluppo sono basate sull’uso di Organic Light Emitting Diode (OLED), ovvero diodo organico a emissione di luce, che non necessita di retro-illuminazione ma produce luce propria; questa caratteristica consente la realizzazione di display con elevato contrasto e con un’ottima resa cromatica, ma al momento i costi di produzione sono ancora elevati, e non ci sono apparati disponibili su larga scala.

3.4 Il cambio delle dimensioni Si ricorre agli algoritmi di zooming quando si renda necessario cambiare la dimensione di un’immagine e degli elementi in essa presenti in fase di visualizzazione o di stampa. Il cambio di dimensioni comporta una ridefinizione della discretizzazione spaziale dell’immagine, in quanto la porzione di matrice selezionata dell’immagine in oggetto dovrà essere adattata alla matrice di visualizzazione o stampa. È intuitivo che cambiare la discretizzazione di un’immagine mette di fronte a due problemi diversi, a seconda che si voglia aumentare o diminuire la risoluzione dell’immagine. Se la discretizzazione deve essere aumentata, bisogna aggiungere dei pixel che non esistono nell’immagine originale, bisogna quindi calcolarne il valore. Se la discretizzazione deve essere diminuita, bisogna eliminare dei pixel in eccesso nell’immagine originale. In ogni caso, l’obiettivo è quello di alterare la discretizzazione dell’immagine di partenza, preservando il più possibile le informazioni in essa presenti. Prendiamo in esame il caso dell’ingrandimento: è necessario aumentare la discretizzazione, quindi bisogna in qualche modo ridisegnare l’informazione mancante. Si ricorre allora agli algoritmi di interpolazione. I principali metodi di interpolazione utilizzati, di cui è mostrato un esempio in Figura 3.11, sono: • replicazione: detto anche zero-order-hold o nearest neighbour (vicini più prossimi), consiste in una semplice copia del pixel da ingrandire nel suo intorno, ed è quello che produce l’effetto di quadrettatura; • bilineare (first-order): esegue un’interpolazione prima lungo tutte le righe poi lungo tutte le colonne. Introduce un effetto di smoothing nell’immagine risultante; • bicubico (second order): lavora calcolando il valore del nuovo pixel come valore medio di una matrice di pixel nel suo intorno. Di solito riduce gli effetti indesiderati

79

80

M. Coriasco et al.

Fig. 3.11 Esempi di ingrandimento con diversi algoritmi. Il particolare dell’immagine (a) è stato ingrandito con l’algoritmo di interpolazione per replicazione (b), hermite (c), bilineare (d), bicubico (e) e lanczos (f)

delle due tecniche precedenti, ma il risultato non è sempre ottimale e dipende molto dall’immagine originale. In particolare, esistono alcune varianti di questo algoritmo che si basano su di una diversa attribuzione di fattori peso ai pixel nell’intorno di quello da calcolare, in modo da ottenere un risultato con variazioni di luminanza più morbide (con maggior smoothing) o più nitide; • Hermite: deve il suo nome dal matematico Charles Hermite, ed è una tecnica di interpolazione basata sull'uso di polinomi che considerano sia i valori presenti nell'immagine, sia la derivata prima dei valori stessi, consentendo quindi una migliore valutazione dell'andamento della luminanza; • Lanczos: è una formula matematica che consente un ricampionamento del segnale ottenuto tramite la convoluzione con una matrice di ricostruzione del segnale detta Kernel di Lanczos; è il miglior compromesso nelle operazioni di ingrandimento di immagini.

3.5 La valutazione della qualità delle immagini digitali Come visto nei paragrafi precedenti, ogni immagine digitale è il risultato di un processo di acquisizione che comprende sempre la rilevazione di un segnale e un procedimento che ha come ultimo passo la definizione dei valori dei singoli pixel. I principali parametri per la valutazione della qualità di un’immagine digitale sono dati dalla quantificazione della risoluzione spaziale e del contrasto. Occorre inoltre valutare la presenza di eventuali artefatti, termine con il quale indichiamo un qualunque tipo di alterazione dei valori dei pixel non riconducibile direttamente all’oggetto che viene rappresentato. Particolare importanza tra gli artefatti è rivestita dal rumore d’immagine. Nei paragrafi che seguiranno verranno descritte le modalità con le quali è possibile fornire una valutazione quantitativa dei parametri di qualità di un’immagine digitale, operazione possibile grazie ad analisi numeriche di immagini test realizzate con procedure ben definite.

3 Introduzione all’immagine digitale

Fig. 3.12 L’oggetto di sinistra presenta delle linee di larghezza 0,5 mm, con una frequenza spaziale di 1 lp/mm. L’immagine che lo rappresenta, seppur con una perdita di nitidezza, mostra ancora l’alternanza di linee propria dell’oggetto. Nel caso rappresentato a destra, l’oggetto ha linee di larghezza 0,25 mm, con una frequenza di 2 lp/mm. L’immagine che lo rappresenta, ottenuta con un sistema analogo a quello del caso di sinistra, non permette di distinguere le diverse linee

3.5.1 Risoluzione spaziale e funzione di trasferimento della modulazione

Per risoluzione spaziale si intende un’indicazione dei più piccoli dettagli presenti nell’oggetto in esame correttamente rappresentati dall’immagine ottenuta. Può anche essere definita come la minima distanza tra due oggetti puntiformi per cui essi sono ancora distinguibili nell’immagine prodotta. L’unità di misura della risoluzione spaziale può quindi essere semplicemente un’unità di lunghezza (es. mm) oppure un’indicazione di frequenza spaziale correttamente rappresentata, come ad esempio le paia di linee per unità di lunghezza (lp/mm). Si considera cioè l’immagine di un oggetto che contiene coppie di linee appaiate di uguale larghezza e di elevato contrasto. Il sistema di produzione dell’immagine sarà in grado di riprodurre l’alternanza di livelli intrinseca dell’oggetto per larghezze di linee superiori a un dato valore soglia, al di sotto del quale non sarà più possibile distinguere i due livelli, come mostrato nella Figura 3.12 di esempio. Questo valore soglia rappresenterà il potere risolutivo dell’immagine digitale e del sistema di acquisizione. Nel trattare la risoluzione di un’immagine digitale, è importante distinguere gli aspetti relativi alla discretizzazione dell’immagine stessa da quelli inerenti il processo di acquisizione. In pratica, possiamo dire che non è possibile rappresentare correttamente dettagli con dimensioni inferiori a quelle di un singolo pixel, mentre non è detto che oggetti con dimensioni analoghe a quelle di un pixel siano correttamente rappresentati, come mostrato nell’esempio in Figura 3.13. Il fatto che non sia possibile rappresentare dettagli con dimensioni inferiori a quelle di un pixel è una diretta conseguenza del teorema del campionamento. Infatti, la dimensione del pixel rappresenta il periodo di campionamento, mentre la frequenza di campionamento sarà data dal suo reciproco. La massima frequenza spaziale correttamente rappresentabile, in accordo al teorema di Shannon, sarà pari alla metà della frequenza di campionamento, per cui per esempio avendo un pixel di 0,25 mm potrò rappresentare correttamente frequenze spaziali fino a (1/2) (1/0,25) = 2 lp/mm.

81

82

M. Coriasco et al. a

b

Fig. 3.13 Un oggetto circolare di diametro 0,5 mm viene rappresentato in un’immagine digitale con pixel di 1 mm (a) e in un’altra con pixel di 0,5 mm (b). Nel primo caso l’oggetto appare nell’immagine con dimensioni maggiori a quelle reali per le limitazioni della dimensione del pixel, nel secondo caso è il processo di acquisizione che implica una perdita di risoluzione, per cui il potenziale vantaggio di un pixel di dimensioni inferiori non si traduce in un effettivo miglioramento di qualità dell’immagine

Fig. 3.14 Rappresentazione schematica del significato di funzione di trasferimento della modulazione (MTF). I dettagli a diversa frequenza spaziale dell’oggetto vengono rappresentati con un contrasto decrescente, il cui valore relativo viene riportato nel grafico della MTF

Esiste un modo per esprimere e descrivere dettagliatamente la risoluzione spaziale di un sistema per produzione di immagini, che è quello di valutare la sua funzione di trasferimento della modulazione (MTF). Tralasciando i fondamenti matematici di tale funzione, in termini pratici essa esprime la variazione relativa di contrasto che il nostro sistema apporta a ciascuna frequenza spaziale. Si consideri l’esempio della Figura 3.14 con i diversi set di linee in ingresso. Per ciascuno di essi, la differenza tra il valore massimo e minimo di intensità dei livelli di grigio nell’immagine avrà un determinato valore, decrescente all’aumentare della risoluzione. Questa differenza, rapportata all’intensità del segnale, rappresenta l’attenuazione introdotta dal sistema alle diverse frequenze spaziali. Riportando questi valori su di un grafico ponendo sulle ascisse le frequenze spaziali e sulle ordinate la percentuale di contrasto mantenuta, si ottiene una rappresentazione della MTF. Il valore soglia univoco per la definizione della risoluzione spaziale può essere definito considerando la frequenza spaziale per la quale si ha un valore di MTF pari al 10 o al 5%. L’MTF è molto importante per confrontare sistemi diversi ed è stata ampiamente utilizzata per discutere l’introduzione dei sistemi per radiologia digitale in sostituzione dei sistemi tradizionali.

3 Introduzione all’immagine digitale

Fig. 3.15 Esempio di immagine priva di rumore (con valori costanti dei pixel in una regione omogenea) e di immagine dello stesso oggetto con rumore (valori dei pixel con alterazioni casuali)

3.5.2 Rumore: quantificazione e analisi spettrale

Il rumore in un’immagine è costituito da variazioni casuali dell’intensità dei livelli di grigio, non corrispondenti a una vera differenza di intensità di segnale proveniente dall’oggetto da rappresentare ma dovuti al contributo di diversi fattori, tra cui oscillazioni casuali dovute ai circuiti elettronici, ai detettori o, comunque, a tutta la strumentazione in catena che trasforma l’immagine originale in quella digitalizzata dell’oggetto rappresentato. Il rumore può essere quantificato considerando i valori assunti dai pixel in una regione dell’immagine che dovrebbe essere omogenea, in quanto ottenuta da un oggetto omogeneo (Fig. 3.15). Calcolando la deviazione standard in rapporto al valore medio dei pixel e moltiplicando per cento si ha il valore del rumore espresso in percentuale. Questa deviazione standard percentuale permette di quantificare l’entità del rumore, ma non definisce univocamente l’aspetto dell’immagine che dipenderà anche da altre caratteristiche. In particolare, è importante considerare la distribuzione statistica delle deviazioni dei valori dei pixel, che potrà avere un andamento uniforme, gaussiano, esponenziale o di altre funzioni di densità di probabilità. Questa distribuzione potrà essere evidenziata attraverso l’istogramma dei valori dei pixel nella regione esaminata, come mostrato nell’esempio della Figura 3.16. Altro punto da considerare relativamente al rumore è quello delle frequenze spaziali con le quali esso si manifesta, che potranno condizionare pesantemente l’aspetto dell’immagine con diverse “tessiture” di rumore. Per evidenziare le frequenze spaziali del rumore occorrerà utilizzare l’analisi di Fourier che è stata già introdotta in precedenza e verrà approfondita in un capitolo seguente. In questo ambito ci interessa utilizzare questo strumento matematico per rappresentare graficamente lo spettro di frequenza del rumore e di conseguenza poter argomentare sulla sua composizione. In caso di andamento costante si parla di rumore bianco, riferendosi al colore che è dato dalla somma degli altri colori noti e, pertanto, presenta uno spettro costituito dalla somma di tutte le possibili frequenze. In altri casi si noterà un rumore con maggiori componenti a basse frequenze oppure ad alte frequenze, come negli esempi mostrati in Figura 3.17. Nell’ambito della diagnostica dell’immagine il rumore è costantemente al centro dell’attenzione nel processo che porta alla definizione dei parametri di acquisizione. Nel-

83

84

M. Coriasco et al.

Fig. 3.16 Esempio di immagini con diversa distribuzione del rumore. Entrambe le immagini della figura presentano un valore medio di 128 e una deviazione standard di 32 (25%) ma, come mostrato dagli istogrammi abbinati, l’immagine in a ha una distribuzione del rumore uniforme, mentre l’immagine in b ha una distribuzione gaussiana

Fig. 3.17 Esempio di immagini con diverso spettro di frequenza del rumore. Le tre immagini mostrate (a, b e c) hanno tutte valore medio 128 e deviazione standard di 32 (25%), ma presentano diverse componenti spettrali di rumore come mostrato nel grafico di destra. In particolare, l’immagine in a mostra un andamento dello spettro che oscilla intorno a un valore costante e si avvicina quindi al caso di rumore bianco. L’andamento del grafico relativo all’immagine in b presenta una maggior componente di basse frequenze, come è evidente anche osservando qualitativamente la “tessitura” del rumore. Il grafico in c ha un andamento tendenzialmente crescente verso le alte frequenze

la maggior parte dei casi il suo valore risultante è frutto di un compromesso tra la qualità desiderata e altri fattori quali, ad esempio, il rischio radiologico per il paziente. Nei capitoli che seguiranno si discuterà approfonditamente di tecniche di elaborazione che consentono di isolare, attenuare e al limite rimuovere il rumore.

3.5.3 Rapporto contrasto-rumore ed efficienza quantica

I diversi elementi che compongono un’immagine sono distinguibili grazie al contrasto che è presente tra di essi. In particolare, nell’ambito medicale assume un’importanza fondamentale la possibilità di visualizzare determinate strutture con adeguato contrasto, che con-

3 Introduzione all’immagine digitale

85

Fig. 3.18 Esempi di immagini con diverso rapporto contrasto rumore (CNR). a Contrasto del 12%, assenza di rumore; b CNR 200%; c CNR 100%; d CNR 50%; e CNR 25%

dizioneranno la diagnosi conseguente. In termini quantitativi, il contrasto può essere definito come la differenza di livello tra due regioni di interesse dell’immagine, eventualmente rapportata a uno dei due livelli per esprimerlo in percentuale. Nell’esempio (a) della Figura 3.18, la zona centrale ha un livello di 144, mentre la zona circostante presenta un livello di 128, quindi con una differenza numericamente pari a 16 che corrisponde al 12%. Occorre però precisare che l’esempio di Figura 3.18a ha la peculiarità di essere totalmente esente da rumore, situazione che nella pratica non si verifica sostanzialmente mai. L’effettiva visibilità di un elemento di un’immagine dipenderà, oltre che dal contrasto, anche dal rumore presente. Per questo motivo è possibile utilizzare un indicatore di qualità dell’immagine che tenga conto sia del contrasto tra oggetti diversi che del rumore con il quale essi sono rappresentati. Si parlerà in questo caso di rapporto contrasto rumore (Contrast to Noise Ratio, CNR), che potrà essere definito come il rapporto tra la differenza di livello tra due elementi e la deviazione standard media dei livelli presente al loro interno. Gli esempi (b), (c), (d) ed (e) di Fig. 3.18 sono stati ottenuti aggiungendo un rumore prestabilito all’immagine (a). È possibile intravedere la regione centrale ancora nell’immagine (d) che presenta un CNR di 50%, mentre risulta critica la distinzione di tale regione nell’esempio (e), che mostra un CNR di 25%. È da notare che il contrasto relativo rimane costante per le diverse immagini, in quanto è stato mantenuto il livello medio di 144 all’interno e di 128 nello spazio circostante. Ciò che cambia è proprio la quantità di rumore, con una deviazione standard media rispettivamente di 8, 16, 32 e 64 per le immagini da (b) a (e). Questo tipo di valutazione può essere utilizzata per verificare le prestazioni di un sistema di produzione di immagini, utilizzando degli adeguati oggetti test. Il risultato sarà tuttavia associato alle caratteristiche dell’oggetto utilizzato, alla sua geometria e al contrasto intrinseco offerto dagli elementi che lo costituiscono. Tuttavia, così come per la risoluzione spaziale abbiamo visto la possibilità di una valutazione più estesa e oggettiva, anche per l’efficacia del sistema nella visualizzazione di elementi con basso contrasto esiste una modalità di valutazione che fornisce una quantificazione univoca e indipendente dagli oggetti test utilizzati. Si parla in questo caso di efficienza quantica di rivelazione (Detective Quantum Efficiency, DQE) che può essere definita nel seguente modo: DQE(f ) 

SNR2out ( f ) SNR2in ( f )

dove SNRout è il rapporto segnale rumore dell’immagine esaminata e SNRin è il rapporto segnale rumore all’ingresso del sistema che produce l’immagine. La distribuzione di

86

M. Coriasco et al.

energia che viene rilevata dal sistema è infatti già affetta da un suo rumore intrinseco: se essa viene mantenuta perfettamente si avrà un’efficienza pari a uno, se invece si ha una perdita di segnale o un aumento del rumore l’efficienza verrà ridotta. Il tutto è valutato per ciascuna frequenza spaziale f, in quanto la risposta dipende fortemente da questo parametro. Si può dimostrare che l’efficienza quantica è strettamente correlata alla funzione di trasferimento della modulazione e allo spettro di frequenza del rumore secondo la seguente relazione: DQE(f ) 

Win MTF 2 ( f ) NPS 2 (f)

dove Win rappresenta il rumore in ingresso al sistema, ricavabile nel caso di immagini radiologiche dal valore di dose in ingresso al rivelatore e da coefficienti tabulati. A partire, quindi, dalla valutazione di MTF e NPS sarà possibile ottenere l’efficienza quantica del proprio sistema, quantità che, come la singola MTF, è stata ampiamente discussa in occasione dell’introduzione dei sistemi digitali per radiologia proiettiva in sostituzione dei sistemi analogici.

3.6 Considerazioni finali Abbiamo visto come l’analisi numerica di immagini digitali di opportuni oggetti test permetta di effettuare valutazioni quantitative di indicatori di qualità. Vale la pena ribadire e sintetizzare in conclusione di questo capitolo i principali fattori che concorrono al risultato di immagine finale con le sue caratteristiche qualitative: 1. la discretizzazione e la quantizzazione scelta determinano in sostanza le potenzialità dell’immagine, rappresentano lo spazio strutturale nel quale le informazioni di dettaglio e di contrasto verranno rappresentate; 2. il sistema di produzione dell’immagine presenta sempre delle limitazioni che alterano sensibilmente la distribuzione di energia da rappresentare, con conseguenti perdite di risoluzione e rapporto segnale rumore; 3. la tecnica di acquisizione con la definizione dei vari parametri condiziona ulteriormente il risultato ottenuto; 4. la visualizzazione dell’immagine comporta un adattamento della matrice numerica che costituisce l’immagine allo spazio predefinito del dispositivo; 5. la post-elaborazione offre la possibilità di alterare secondo una precisa intenzione determinate caratteristiche come, per esempio, la riduzione del rumore o l’aumento di visibilità di piccoli dettagli. Il professionista che nella propria attività si trovi a ottenere informazioni attraverso immagini dovrebbe conoscere le conseguenze delle scelte relative a tutti questi punti sul suo prodotto finale. In questo testo verrà in particolare approfondito il quinto punto relativo alle possibili post-elaborazioni, finalizzate al miglioramento di qualità o, comunque, alla definizione di procedure per evidenziare informazioni contenute nell’immagine.

3 Introduzione all’immagine digitale

Per il secondo e terzo punto è invece essenziale una trattazione più specifica delle singole metodiche, reperibile in altri testi di questa collana.

Letture consigliate Gruppo di Studio per l’Assicurazione di Qualità in Radiologia Diagnostica ed Interventistica (ed) (2010) Linee guida per l’assicurazione di qualità in teleradiologia. Rapporti ISTISAN 10/44. Istituto Superiore di Sanità, Roma National Electrical Manufactures Association (2004) Digital Imaging and Communications in Medicine (DICOM) Part 14: Grayscale Standard Display Function. Standard NEMA PS 3.142004, Rosslyn, Virginia, USA

87

88

ESERCIZI

Esercizi 1) La quantizzazione consiste nella: a) attribuzione di valori reali alle variabili spaziali b) rappresentazione dei livelli di luminanza con valori interi c) prelevamento del valore del campione a intervalli interi d) definizione della risoluzione di acquisizione 2) La fedele ricostruzione di un’immagine da numerico ad analogico avviene se: a) la discretizzazione è uniforme b) la quantizzazione è uniforme c) è stato rispettato il teorema del campionamento d) sia la discretizzazione sia la quantizzazione sono uniformi 3) Nei FAX la profondità è di due soli livelli di grigio, perché a) l’informazione su filo elettrico può assumere solo due valori (presenza/assenza di tensione) b) codificare con un solo bit/pixel minimizza l’occupazione di banda sul canale telefonico c) si preleva il valore del campione a intervalli interi d) la risoluzione di acquisizione non è esattamente definita nella grafica a scala di grigi 4) Perché solitamente nelle immagini a uso clinico sono impiegati molti più livelli di grigio di quanti sia in grado di discriminare l’occhio umano? a) perché l’informazione su filo elettrico può assumere solo due valori (presenza/assenza di tensione) quindi è necessario integrare tale mancanza aumentando il numero di livelli b) perché con il tempo l’occhio dell’operatore si esercita e diventa in grado di discriminare molti più livelli di quanto sia abituato l’occhio umano normale c) per aumentare le possibilità di variazione del contrasto nelle immagini rappresentate, adottando opportune tecniche di elaborazione dei valori dei pixel inizialmente presenti nell’immagine d) perché la risoluzione di acquisizione non è esattamente definita nella grafica a scala di grigi 5) Come è definita la tecnica in medicina nucleare nella quale a determinati range di conteggi viene associato un particolare colore? a) colorazione con falsi tecnici b) tecnica dei falsi colori c) tecnica dei colori ambigui d) tecnica dei colori finti

ESERCIZI

6) Cosa indica la profondità di un pixel? a) la sua altezza fisica espressa in micron b) il numero di tonalità di colore usate per quantizzare l’informazione contenuta nel pixel c) il numero di tonalità di grigio utilizzate per rappresentare l’immagine d) il numero di bit utilizzati per quantizzare (da essa dipende il numero di tonalità rappresentabili) 7) Cosa succede raddoppiando la profondità dei pixel in un’immagine a colori nel sistema RGB? a) raddoppia il numero di tonalità rappresentabili b) quadruplica il numero di tonalità rappresentabili c) raddoppia lo spazio occupato d) la quantità di memoria occupata diventa di otto volte 8) Per la conversione analogico-numerica di un’immagine occorre applicare: a) operazioni di campionamento e quantizzazione b) operazioni di conversione in digit c) conversioni in formato analogico d) trasformazioni da numeriche ad analogiche 9) Utilizzando 16 bit, si ottengono livelli di luminanza compresi fra: a) 0 e 256 b) 0 e 1023 c) 1 e 255 d) 0 e 65535 10) Supponendo di voler memorizzare una sequenza di immagini della durata di 13 secondi con dimensioni 1024 768 a colori RGB e 25 fotogrammi al secondo, calcolare la quantità di memoria necessaria 11) Calcolare il numero di KiB necessari per la memorizzazione raw di un'immagine a colori RGB di 1024 768 con profondità di 8 bit per ogni colore 12) Un’immagine numerica viene rappresentata mediante: a) una matrice di pixel f (x, y) con x, y valori di righe e colonne b) una distribuzione di frequenze c) una distribuzione di livelli di luminanza d) una matrice f(x,y) con x, y valori di luminanza 13) Una quantizzazione lasca induce: a) due soli livelli di luminanza b) tutti i livelli di luminanza previsti c) falsi contorni corrispondenti a isolinee d) livelli di luminanza distribuiti in modo uniforme

89

90

ESERCIZI

14) La discretizzazione spaziale definisce: a) la quantizzazione dei valori di luminanza b) le dimensioni dell’immagine c) la conversione di formato d) la risoluzione in frequenza 15) Una penna USB abbia capacità di 2GB e sia occupata per il 30%. Calcolare quante immagini di dimensioni 1024 768 con 2 byte per la codifica dei livelli di luminanza in formato raw è ancora in grado di contenere 16) Nelle immagini radiologiche si utilizzano generalmente 4096 diversi livelli di luminanza: a) quanti bit occorrono per rappresentarli tutti? b) quanti byte occorrono per rappresentarli tutti? 17) Data l’immagine di cui sotto, di dimensione 4 4 e quattro livelli di luminanza, (0,1,2,3) determinare l’istogramma dei livelli di grigio e rappresentarlo graficamente

18) In a) b) c) d)

0

3

3

3

0

0

0

3

0

1

1

3

2

0

0

3

un’immagine numerica l’errore che si commette nella quantizzazione: dipende dalla profondità di una scena è funzione delle dimensioni dell’immagine dipende dal numero di bit riservati al valore della luminanza è funzione della risoluzione

19) La discretizzazione di un’immagine digitale può essere definita come: a) il numero di bit utilizzati b) il numero di pollici lungo le due direzioni spaziali c) il numero di pollici lungo la diagonale d) il numero di pixel per pollice 20) Per diminuire l’errore di quantizzazione: a) si agisce sulla profondità di una scena b) si aumentano le dimensioni dell’immagine c) si aumenta il numero di bit riservati al valore della luminanza d) si cambia la risoluzione 21) L’istogramma dei livelli di luminanza fornisce informazioni: a) sulla rappresentazione gaussiana b) sulla metodologia di acquisizione di un’immagine

ESERCIZI

c) sulla distribuzione cumulativa di luminanza d) sul rapporto fra il numero di pixel con dato valore di luminanza e il numero totale di pixel 22) L’istogramma dei livelli di luminanza: a) descrive il contenuto di un’immagine piatta b) varia a seconda della posizione assunta dagli oggetti all’interno dell’immagine c) rappresenta la distribuzione cumulativa di luminanza d) permette di ricavare la luminanza media di un'immagine 23) Un’immagine di una radiografia di formato 24 30 con dimensioni del pixel di 90 m viene stampata su una pellicola di dimensioni 18 24 con una risoluzione di stampa di 600 DPI. Calcolare: a) la matrice dell’immagine originale b) le dimensioni del pixel in fase di stampa c) la matrice dell’immagine stampata 24) Si desidera ottenere un voxel isotropico (con i tre lati uguali) a partire da un’immagine tomografica di matrice 512 512 e spessore della sezione di 0,75 mm. Che dimensioni di FOV (Field Of View, dimensione dell’immagine in cm) si dovrà scegliere? 25) Si vogliono archiviare delle immagini digitali CR con matrice 1500 2500, profondità pixel 16 bit, su di un CD da 700 MiB. Quante immagini è possibile archiviare? 26) Che caratteristiche possiede un’immagine il cui istogramma dei livelli è sbilanciato a destra? a) una predominanza di pixel appartenenti a valori alti, con prevalenza di tonalità scure b) una predominanza di pixel appartenenti a valori bassi, con prevalenza di tonalità scure c) una predominanza di pixel appartenenti a valori alti, con prevalenza di tonalità chiare d) una predominanza di pixel appartenenti a valori bassi, con prevalenza di tonalità chiare 27) Che caratteristiche possiede un’immagine il cui istogramma dei livelli è sbilanciato a sinistra? a) una predominanza di pixel appartenenti a valori alti, con prevalenza di tonalità scure b) una predominanza di pixel appartenenti a valori bassi, con prevalenza di tonalità scure c) una predominanza di pixel appartenenti a valori alti, con prevalenza di tonalità chiare

91

92

ESERCIZI

d) una predominanza di pixel appartenenti a valori bassi, con prevalenza di tonalità chiare 28) Che caratteristiche possiede un’immagine con istogramma a banda limitata? a) una predominanza di pixel appartenenti a valori medi, con prevalenza di tonalità scure b) una predominanza di pixel appartenenti a valori medi, con prevalenza di tonalità chiare c) un contrasto tanto più limitato quanto più ristretto è l’intervallo di banda d) un contrasto tanto più elevato quanto più ristretto è l’intervallo di banda 29) Cosa indica la risoluzione spaziale di un’immagine radiologica digitale? a) la distanza tra oggetti distinguibili per cui essi risultino ancora puntiformi b) la distanza tra due oggetti puntiformi per cui essi non risultino distinguibili c) la massima distanza tra due oggetti puntiformi per cui essi risultino ancora distinguibili d) la minima distanza tra due oggetti puntiformi per cui essi risultino ancora distinguibili nell’immagine prodotta 30) Come si può quantificare percentualmente l’entità del rumore presente in un’immagine? a) calcolando la deviazione standard in rapporto al valore medio dei pixel appartenenti a una regione dell’immagine che si suppone omogenea e moltiplicando per cento b) calcolando la deviazione standard in rapporto al valore medio dei pixel appartenenti a una regione il più possibile disomogenea dell’immagine e moltiplicando per cento c) calcolando il valore medio dei pixel di una regione disomogenea dell’immagine e moltiplicando per cento d) non esiste un tale sistema, il rumore viene sempre espresso in valore assoluto e non in termini percentuali 31) Quali differenze presenta la tecnologia OLED rispetto a quella a LED? a) nessuna differenza, solo nella OLED si ha maggior resa cromatica e più elevato contrasto b) nella OLED il pixel, necessitando di retroilluminazione, garantisce maggior resa luminosa c) nella OLED il pixel non necessita di retro-illuminazione ma emette luce propria d) non esiste nessuna tecnologia OLED, esiste solo quella a LED (Light Emitting Diode) 32) Quale problema si presenta nel cambiare le dimensioni di un’immagine? a) nessun problema, basta eseguire un ingrandimento b) ridefinire la matrice di discretizzazione spaziale originaria c) è necessario calcolare il valore dei pixel prodotti dalla nuova discretizzazione d) è necessario eliminare dei pixel che non esistono nell’immagine originale

ESERCIZI

33) Quale problema si presenta nell’aumentare le dimensioni di un’immagine? a) nessun problema, basta eseguire un ingrandimento b) diminuire le dimensioni della matrice di discretizzazione spaziale originaria c) è necessario calcolare il valore di nuovi pixel che non esistevano nell’immagine originaria d) è necessario eliminare selettivamente dei pixel nell’immagine originale 34) Quale problema si presenta nel diminuire le dimensioni di un’immagine? a) nessun problema, basta eseguire un ingrandimento al contrario b) aumentare le dimensioni della matrice di discretizzazione spaziale originaria c) è necessario calcolare il valore di nuovi pixel che non esistevano nell’immagine originaria d) è necessario selezionare quali pixel devono essere eliminati nell’immagine originale 35) Quale algoritmo utilizzato nell’ingrandimento produce un tipico effetto di quadrettatura? a) algoritmo bilineare b) algoritmo bicubico c) algoritmo di replicazione d) non esiste effetto quadrettatura negli ingrandimenti, solo nelle riduzioni 36) Con quali unità di misura può essere quantificata la risoluzione spaziale? a) nessuna, è sufficiente che l’immagine sia intelligibile con la sua matrice di risoluzione nativa b) un’unità di lunghezza (mm) oppure una frequenza spaziale, come lp/mm c) un’unità di superficie (mm2) oppure una frequenza spaziale (lp/mm2) d) un’unità di memoria (byte), oppure come flusso di dati (in bit/s) 37) Qual è il valore della massima frequenza spaziale rappresentabile in una matrice nella quale i pixel hanno dimensione fisica di 0,1 mm? a) la metà della frequenza di campionamento: (½) (1/0,1) = 5 lp/mm b) il doppio della frequenza di campionamento: 2 (1/0,1) = 20 lp/mm c) frequenza di campionamento, pari alla dimensione del pixel: 0.1mm d) nessuna delle precedenti 38) Cosa esprime la funzione di trasferimento della modulazione? a) il rapporto segnale/rumore in uscita dal singolo elemento di detezione b) il valore assoluto del contrasto massimo rappresentato in base all’SNR c) quantifica la capacità relativa del sistema di modulare il trasferimento dell’informazione d) la variazione relativa di contrasto che il sistema apporta alle varie frequenze spaziali

93

94

ESERCIZI

39) Come è denominato il rumore che contenga indifferentemente tutte le componenti in frequenza senza prevalenza di alte o basse o medie frequenze? a) rumore verde b) non esiste, nel rumore c’è sempre una netta prevalenza di una certa componente in frequenza c) rumore RGB d) rumore bianco 40) L’efficienza quantica di rivelazione (DQE) dipende da: a) SNR del sistema e CNR dell’immagine b) funzione di trasferimento della modulazione e spettro di frequenza del rumore c) funzione di trasferimento della modulazione e rumore bianco d) algoritmo di ricostruzione e frequenza del rumore

Elaborazione di immagini

4

Indice dei contenuti 4.1 4.2 4.3 4.4 4.5 4.6 4.7 4.8 4.9

Tecniche di elaborazione Distanze fra pixel Elaborazioni puntuali Elaborazioni locali Elaborazioni globali Elaborazioni nel dominio delle frequenze spaziali Ripristino di qualità dell’immagine I software per l’elaborazione Considerazioni finali Esercizi

4.1 Tecniche di elaborazione La principale caratteristica delle immagini digitali è la possibilità di sottoporle a elaborazione numerica: i pixel possiedono caratteristiche di colore e luminosità associate a numeri, il cui valore può essere modificato secondo opportuni algoritmi di trasformazione; le caratteristiche dell’immagine finale saranno frutto delle trasformazioni applicate. In radiologia tradizionale, la pellicola sensibile viene impressionata utilizzando opportuni parametri scelti a priori e l’immagine finale, affetta da eventuali errori di esposizione, non può più essere corretta. In radiologia digitale, invece, i numeri che identificano il livello di grigio di ciascun pixel di un’immagine possono essere modificati applicando opportune tecniche di elaborazione; lo scopo, oltre alla correzione di errori di esposizione, è l’estrazione e l’enfatizzazione di alcune informazioni rispetto ad altre per scopi diagnostici. L’insieme delle tecniche di elaborazione utilizzate per modificare il contenuto di immagini digitali in fasi successive all’acquisizione è denominato col termine anglosassone digital image processing. L’immagine digitale in diagnostica per immagini. Mario Coriasco, Osvaldo Rampado, Nello Balossino, Sergio Rabellino DOI: 10.1007/978-88-470-5364-9_4 © Springer-Verlag Italia 2013

95

96

M. Coriasco et al.

I tipi di elaborazione di immagine possono essere classificati in base alla modalità con cui vengono modificati i singoli pixel; possiamo distinguere tra tecniche di elaborazione: • puntuali: questo tipo di elaborazione agisce modificando il valore di ciascun pixel secondo una funzione analitica di conversione prestabilita, resa eventualmente in forma tabellare; il valore del pixel così calcolato è attribuito al pixel in posizione omologa nell’immagine elaborata; il procedimento è ripetuto per ciascuno dei pixel che compongono l’immagine; • locali: in esse si considera un insieme di pixel circostanti a quello oggetto di modifica; il nuovo valore del pixel è calcolato tenendo conto del valore dei pixel dell’insieme, pesato differentemente a seconda del tipo di elaborazione che si vuole ottenere; • globali: ciascuno dei pixel dell’immagine elaborata ha un valore che è correlato con i pixel dell’intera immagine oggetto di elaborazione; • nel dominio trasformato: l’elaborazione è condotta operando sulle frequenze spaziali che compongono l’immagine. Le tecniche di elaborazione possono anche essere classificate in base all’obiettivo che si vuole ottenere. Le metodiche usate più di frequente nell’elaborazione delle immagini mediche digitali si pongono tipicamente i seguenti obiettivi: • aumento e ottimizzazione del contrasto (contrast enhancement); • aumento della nitidezza (sharpening); • riduzione del rumore (smoothing); • ingrandimento (zooming); • ripristino di qualità dell’immagine (image restoration). Nei paragrafi successivi saranno analizzate in maggior dettaglio le tecniche più significative utilizzate nell’ambito dell’elaborazione di immagini biomediche; queste tecniche costituiscono le basi che, mediante opportune combinazioni, permettono di affrontare elaborazioni più complesse.

4.2 Distanze fra pixel Prima di continuare nell’analisi delle tecniche di elaborazione, è necessario introdurre alcuni concetti fondamentali che saranno utili per la trattazione. Fra i pixel che compongono un’immagine a toni di grigio o binarizzata, possiamo identificare delle relazioni che legano i pixel tra di loro. Prendiamo un pixel p di coordinate (x,y); i quattro pixel vicini nelle direzioni nord, sud, est, ovest, cioè con coordinate (x1,y), (x1,y), (x,y1), (x,y1), costituiscono l’insieme N4(p) dei 4-vicini (4-neighbors), ciascuno dei quali ha distanza uno dal pixel (x,y) preso in considerazione (Schema 4.1a). Se ora applichiamo lo stesso concetto ai quattro pixel vicini percorrendo le diagonali, questi avranno coordinate (x1,y1), (x1,y1), (x1,y1), (x1,y1) e formeranno l’insieme ND(p) (Schema 4.1b). Questi pixel, uniti all’insieme dei 4-vicini, costituiscono l’insieme degli 8-vicini (8neighbors) di p, che indichiamo con N8(p): N8(p) N4(p) 傼 ND(p)

4 Elaborazione di immagini

97

Schema 4.1

Partendo da queste definizioni, possiamo affermare che due pixel p,q sono connessi se, oltre a essere tra loro in una data relazione di adiacenza spaziale, i livelli di luminanza soddisfano uno specifico criterio di similarità. In generale, il criterio di similarità può consistere nel fatto che i valori di luminanza dei pixel p,q appartengono a un dato intervallo V di valori. Nel caso in cui V  ⎨0,1⎬, saremo in presenza di un’immagine binarizzata con soli pixel bianchi e neri, se invece V  ⎨32,33,34,...,63⎬, l’immagine avrà livelli di luminanza compresi fra 32 e 63, e così via. Valgono le seguenti definizioni di connettività fra due pixel p,q: • 4-connettività (4-neighbors): i due pixel p,q hanno valori in V e q è nell’insieme N4(p); • 8-connettività (8-neighbors): i due pixel p,q hanno valori in V e q è nell’insieme N8(p); • m-connettività (mixed connectivity): i due pixel p,q hanno valori in V e – q è nell’insieme N4(p); oppure – q è nell’insieme ND(p) e risulta vuoto l’insieme dei pixel 4-vicini sia di p sia di q, cioè N4(p) 傽 N4(q)  . Da quanto descritto, si dice che un pixel p è adiacente a un pixel q se sono connessi; se due pixel sono 4-, 8-, m-connessi, saranno definiti rispettivamente come 4-, 8-, m-adiacenti. Infine, due sottoinsiemi S1 e S2 sono adiacenti se qualche pixel di S1 è adiacente a qualche pixel di S2. Grazie a queste relazioni, è possibile ora identificare un cammino (path) del pixel p di coordinate (x,y) al pixel q di coordinate (s,t) come costituito da una sequenza di coordinate: (x0, y0), (x1, y1), (x2, y2), ... (xn, yn) dove la prima coordinata (x0,y0) è il pixel p, l’ultima coordinata (xn, yn) è il pixel q e ognuno dei pixel presenti nella sequenza è adiacente a quello che lo precede. Il valore di n è la lunghezza del cammino che potrà essere un 4-, 8-, m-cammino a seconda del livello di adiacenza che prendiamo in considerazione. Consideriamo ora due generici pixel p,q appartenenti a un sottoinsieme S dell’immagine; possiamo affermare che p è connesso a q all’interno di S se esiste un cammino fra p,q interamente costituito da pixel di S. Per ogni pixel p in S, l’insieme dei pixel

98

M. Coriasco et al.

in S che sono connessi a p sono detti componenti connesse di S; ne segue che due pixel di una componente connessa sono connessi fra loro e, come ulteriore conseguenza, componenti connesse distinte sono composte da insiemi di pixel differenti. Grazie alle definizioni introdotte, siamo ora in grado di introdurre un metodo per valutare numericamente le distanze all’interno di un’immagine. Consideriamo 3 pixel: p con coordinate (x,y), q con coordinate (s,t) e z con coordinate (u,v); la funzione distanza o metrica sarà definita come dalle seguenti regole: D(p,q)  0 se e solo se p  q; D(p,q)  D(q,p); D(p,z)  D(p,q)  D(q,z).

D(p,q)  0;

La distanza euclidea tra p e q è definita come: De ( p, q) = ( x − s )2 + ( y − t )2

Ne segue che i pixel che posseggono distanza minore o uguale a un valore r da (x,y) sono pixel contenuti in un disco di raggio r con centro in (x,y). Oltre alle distanze classiche derivate dalla geometria euclidea, introduciamo la distanza D4, detta city-block, definita come segue: D4(p,q)  冟x  s 冟 + 冟y  t 冟 in cui i pixel con distanza D4 dal pixel di coordinate (x,y) minore o uguale a un valore r costituiscono un diamante con il centro in (x,y). Per esempio, i pixel a distanza D4  2 dal punto centrale formano i seguenti contorni di distanza costante, come descritto in Schema 4.2a. Osserviamo che i pixel a D4  1 sono i 4-vicini di (x,y). La distanza D8, detta distanza degli scacchi, è definita come: D8(p,q)  max(冟x  s 冟, 冟y  t 冟) In questo caso, i pixel con distanza D8 da (x,y) minore o uguale a qualche valore r formano un quadrato centrato in (x,y). Per esempio, nel caso di D8  2 da (x,y) si ottengono i contorni di distanza costante descritti in Schema 4.2b. Osserviamo che i pixel a D8  1 sono gli 8-vicini di (x,y). Possiamo allora affermare che la distanza D4 fra due punti p e q è uguale alla lunghezza del cammino più corto fra questi due punti, se ci si sposta solo in orizzontale o in verticale e lo stesso vale per la distanza D8 se sono ammesse anche le direzioni diagonali. Se consideriamo la m-connettività, la lunghezza del cammino tra due pixel è legata al valore dei pixel lungo il cammino a quello dei loro vicini. Facendo riferimento al caso in cui p0, p2 e p4 abbiano valore uguale a 1 e che p1 e p3 abbiano valore 0 oppure 1 si ottiene (Schema 4.2c): • se è permessa solo la connettività 1 per i pixel e p1 e p3 sono 0, la m-distanza tra p0 e p4 assume valore 2; • se p1 oppure p3 è pari a 1, la m-distanza assume valore 3; • se p1 e p3 sono 1, la m-distanza assume valore 4.

4 Elaborazione di immagini

Schema 4.2

In generale, la valutazione metrica delle distanze tra pixel è utile quando si vogliono considerare regioni di interesse (Region Of Interest, ROI) in termini quantitativi e qualitativi, e anche nel caso in cui le componenti connesse rappresentino un elemento di interesse, come ad esempio i contorni di un organo, o di un vaso.

4.3 Elaborazioni puntuali 4.3.1 Look-Up Table

Le Look-Up Table (LUT) sono tabelle che stabiliscono una relazione tra i valori originali dei pixel e quelli risultanti dopo l’elaborazione. Nell’esempio che segue è utilizzata una LUT molto semplice a due valori, con l’obiettivo di alterare il contrasto dell’immagine, aumentando la possibilità di discriminare l’area chiara circostante da quella più scura. Nell’immagine a basso contrasto, riportata a sinistra in Figura 4.1, i pixel hanno un valore di 140 per lo sfondo, supposto chiaro, e di 110 per l’oggetto, supposto più scuro e disposto al centro. Il contrasto tra le due aree, cioè dell’oggetto centrale rispetto allo sfondo, è dato dalla differenza tra i valori, vale a dire 140  110  30. L’elaborazione nell’esempio utilizza una LUT che sostituisce il valore 220 ai pixel con valore 140, e valori di 60 ai pixel con valore 110. L’effetto di questa sostituzione genera un’enfatizzazione del contrasto che fa emergere il quadrato più scuro sullo sfondo di colore più chiaro. La LUT, intesa come tabella di corrispondenza, può essere rappresentata graficamente con un diagramma cartesiano, che riporta sulle ascisse i livelli di grigio dell’immagine di partenza e sulle ordinate quelli dell’immagine risultante. La rappresentazione grafica della LUT sotto forma di curva (detta curva di stretching o curva LUT) fornisce un’indicazione sintetica e immediatamente comprensibile del risultato finale dell’elaborazione.

99

100

M. Coriasco et al.

Fig. 4.1 Rappresentazione schematica delle conseguenze dell’applicazione di una LUT. La differenza numerica tra i valori assunti dai pixel passa da 30 a 160. In questo caso l’effetto è quello di aumentare il contrasto dell’immagine Fig. 4.2 Rappresentazione grafica di una LUT con windowing. L’effetto è quello di sfruttare l’intera scala dei livelli di grigio per rappresentare i pixel che hanno un valore compreso tra 60 e 160. Ai pixel di valore inferiore a 60 sarà attribuito valore 0, a quelli di valore superiore a 160 sarà attribuito valore 255

In un sistema per l’imaging radiografico digitale, sono generalmente disponibili LUT preconfigurate: a seconda del tipo di indagine selezionato dall’operatore viene applicata automaticamente la LUT più appropriata in relazione al contrasto d’immagine richiesto. Una radiografia del torace sarà elaborata con una curva diversa da quella applicata su un’indagine radiografica dell’addome oppure di piccoli segmenti ossei. È possibile intervenire sull’intervallo di valori su cui si distribuiscono le intensità dei pixel (la scala tonale) applicando LUT con finestre (windowing): si seleziona una parte dell’intervallo di valori e si rappresenta tale porzione su tutta la scala di grigi (dal nero al bianco). L’operatore può regolare sia la posizione del centro che la larghezza della finestra di rappresentazione (Fig. 4.2).

4 Elaborazione di immagini

101 Fig. 4.3 Elaborazioni tramite windowing e rappresentazioni delle LUT corrispondenti

Con questa tecnica è possibile esaltare il contenuto informativo in uno specifico intervallo di valori. Per esempio, come si può vedere in Figura 4.3, regolando la finestra in modo da coprire il segmento più basso dell’intervallo totale di valori, si ottiene nell’immagine finale un buon contrasto per le regioni d’immagine più scure come il polmone, mentre regolando la finestra sulla parte più alta dell’intervallo si rappresentano con un buon contrasto le regioni più chiare dell’immagine, come il mediastino. L’effetto dell’applicazione delle LUT lineari con finestra consiste nel far corrispondere a un insieme più o meno ampio di livelli di grigio dell’immagine originale un insieme di livelli di grigio in cui il contrasto sia massimo. Dobbiamo comunque osservare che, mentre si ha un’espansione dei livelli all’interno della finestra, si avrà contemporaneamente una compressione degli intervalli esterni che coincideranno con il livello minimo coincidente con il nero e quello massimo, rappresentato in bianco. L’espansione di una parte dell’istogramma è accompagnata da una compressione delle parti rimanenti; un tipico esempio è la selezione della finestra nelle indagini TC: quanto più si limita l’estensione dell’intervallo da amplificare (window width) tanto più è notevole l’incremento del contrasto apprezzabile tra le strutture la cui densità ricade in tale intervallo (Fig. 4.4).

102

M. Coriasco et al.

Fig. 4.4 Esempio di elaborazione di immagine TC. L’immagine di partenza non è visibile in quanto composta dai dati grezzi misurati e non viene rappresentata. A tali dati viene applicata una LUT del tipo windowing, privilegiando di volta in volta la parte di intervallo dinamico che si desidera vedere con un buon contrasto. In a, la finestra è stata molto ristretta per enfatizzare le strutture encefaliche: esse hanno densità da 15 a 45, dal liquido cerebro-spinale alla sostanza bianca. In b, la finestra è stata allargata e centrata più in alto, i valori di densità che corrispondono all’encefalo vengono rappresentati con una tonalità di grigio uniforme, mentre le strutture ossee risultano ora ben visibili

Dal punto di vista matematico è possibile considerare l’equazione che associa ai valori di origine r dei pixel dell’immagine i valori modificati s dopo il windowing, data dalla seguente: ⎛r − c 1⎞ s = ( 2 n − 1) ⋅ ⎜ + ⎟ 2⎠ ⎝ w dove n è la profondità del pixel, c è il centro finestra e w l’ampiezza. Un altro esempio di LUT è quello che presenta un grafico “a gradini” in cui un’immagine con valori tonali che cadono in un intervallo sono unificati in un solo valore; avremo come risultato una suddivisione dell’immagine in zone fra loro omogenee, come si può vedere in Figura 4.5. Di particolare interesse nell’ambito della radiologia digitale sono le LUT che presentano l’andamento di una funzione matematica detta sigmoide. Come si può vedere in Figura 4.6, essa rispecchia l’andamento della curva sensitometrica di una tradizionale pellicola, con un tratto iniziale di bassa pendenza (piede), un tratto centrale di inclinazione lineare e un tratto in cui viene raggiunta la saturazione con nuovamente una diminuzione dell’inclinazione (spalla).

4 Elaborazione di immagini

Fig. 4.5 L’immagine sottoposta a una LUT a gradini come quella in figura è rappresentata utilizzando soltanto i livelli di grigio corrispondenti ai gradini. Il numero di grigi utilizzato è quindi determinato dal numero dei gradini della LUT. Tale situazione è immediatamente visibile nell’istogramma sulla destra, ove si conta un numero estremamente limitato di livelli presenti: il loro numero è dato dal numero di gradini della LUT che è stata applicata

Fig. 4.6 Elaborazioni tramite LUT con andamento sigmoidale simile a quello della curva sensitometrica di una pellicola radiografica. A sinistra è mostrata l’immagine prima dell’elaborazione, al centro la curva LUT e a destra l’immagine dopo l’elaborazione. Si noti come l’immagine risultante sia molto simile a un’immagine ottenuta su pellicola con tradizionali sistemi non digitali

Come per le curve caratteristiche delle pellicole radiografiche, la pendenza della curva in qualsiasi punto dà un’informazione su come sarà cambiato il contrasto dopo l’elaborazione. Nel tratto in cui la curva ha un’elevata pendenza, l’elaborazione aumenterà il

103

104

M. Coriasco et al.

contrasto; viceversa, quando la pendenza è scarsa (inferiore a 45°) il contrasto risulterà diminuito. Se l’immagine acquisita da un sistema radiografico digitale viene visualizzata senza subire alcun tipo di elaborazione, si presenterà con un contrasto insufficiente, come si può apprezzare nell’immagine della Figura 4.6 a sinistra; ciò è dovuto all’ampia gamma dinamica del range di esposizione e alla contemporanea risposta lineare dei detettori del sistema digitale. L’ampia variabilità di esposizione è acquisita nella sua totalità poiché il detettore è in grado di rilevare le caratteristiche di contrasto in tutto l’intervallo dinamico, a differenza di quanto avviene per la curva sensitometrica delle immagini direttamente impressionate su pellicola radiografica. I sistemi per radiologia digitale (computed radiography, CR o direct radiography, DR) offrono quasi sempre una curva LUT con andamento coerente con quello di una curva sensitometrica, che conferisce all’immagine elaborata caratteristiche di contrasto simili a quello di una pellicola radiografica. L’equazione che permette di calcolare i nuovi valori di pixel s a partire dai valori di origine r per una LUT sigmoide è la seguente: −1

r −c ⎞ ⎛ − s = ( 2 − 1) ⋅ ⎜⎜1 + e w ⎟⎟ ⎝ ⎠ dove n è la profondità del pixel e i parametri c e w definiscono sostanzialmente la posizione relativa (centro finestra) e l’ampiezza della finestra della LUT. A volte, secondo le preferenze personali, può essere utile visualizzare contemporaneamente l’immagine applicando una LUT sensitometrica inversa (osso rappresentato scuro) in aggiunta all’immagine tradizionale (osso rappresentato chiaro), in quanto alcune lesioni o strutture anatomiche risultano più visibili e di più facile individuazione nell’immagine invertita. La LUT in grado di produrre tale tipo di immagini corrisponde a quella visibile al centro della Figura 4.7. Il grafico indica chiaramente che i livelli più chiari diventeranno i più scuri nell’immagine elaborata, e viceversa. Tra le altre tipologie di LUT ricordiamo quelle associate a trasformazioni logaritmiche ed esponenziali. In quelle logaritmiche l’intervallo costituente l’istogramma dell’immagine di partenza è trasformato calcolando il logaritmo di ciascun livello di grigio aumentato di una unità (corrispondente a valori positivi del logaritmo). L’andamento della curva logaritmica rende la modifica del contrasto più efficace per i livelli di grigio più scuri, ovvero situati più in basso nella scala; essi vengono trasformati in livelli molto più distanziati fra loro di quanto non avvenga per i livelli più chiari, che risultano più compressi e quindi meno discriminabili. La trasformazione logaritmica è efficace nell’elaborazione di immagini in cui sono contenute zone di interesse con predominanza di livelli scuri. Il contrasto di tali strutture viene amplificato, mentre quello del resto dell’immagine è compresso (Fig. 4.8). Al contrario, una trasformazione esponenziale è più efficace nell’ampliare il contrasto delle zone con predominanza di livelli alti. I livelli di grigio più chiari risulteranno così più distanziati fra loro e meglio rappresentati. Per questo motivo essa è molto utile nell’elaborazione di immagini in cui interessa analizzare con il massimo contrasto particolari i cui livelli di grigio sono situati nella parte alta del range. Il contrasto delle altre zone risulterà diminuito (Fig. 4.9). n

4 Elaborazione di immagini

105 Fig. 4.7 Elaborazioni tramite LUT con andamento invertito. A sinistra è mostrata l’immagine prima dell’elaborazione, al centro la curva LUT e a destra l’immagine dopo l’elaborazione. Si noti l’inversione dei livelli di grigio rispetto all’immagine di Figura 4.6

Fig. 4.8 Elaborazione tramite LUT logaritmica. La situazione è inversa a quella precedente, le regioni più scure dell’immagine sono rappresentate con un intervallo di livelli più ampio e appaiono meglio visibili, quelle più chiare vengono schiacciate su livelli alti e tendono a scomparire in quanto rappresentate con un più ristretto intervallo di livelli verso il 255° livello (spalla della curva)

Un effetto simile a quello delle LUT esponenziali e logaritmiche appena descritto può essere ottenuto anche con una LUT basata su una funzione di tipo potenza, chiamata spesso gamma. Per questa LUT, il nuovo valore del pixel è definito sulla base del precedente secondo la seguente equazione: s  (2n  1)  (r/(2n  1)) dove al solito s è il nuovo valore del pixel, r è il valore precedente, con n profondità del pixel e  è il parametro che può essere variato a seconda degli effetti che si desidera ot-

106

M. Coriasco et al.

Fig. 4.9 Elaborazione tramite LUT esponenziale. Le regioni più chiare dell’immagine vengono rappresentate con un intervallo di livelli più ampio e appaiono meglio visibili, quelle più scure vengono schiacciate su livelli bassi e tendono a scomparire in quanto rappresentate con un ristretto intervallo di livelli verso lo zero (ginocchio della curva)

Fig. 4.10 Esempi di applicazioni di LUT gamma con diversi valori del parametro

tenere. In particolare, con  < 1 si avrà un andamento tale da ottenere alterazioni simili a quelle riscontrate per una LUT esponenziale, mentre per  > 1 si avranno effetti simili a quelli descritti per la LUT logaritmica. Si noti che nel caso particolare in cui   1 si ottiene una LUT identità s  r (Fig. 4.10).

4 Elaborazione di immagini

107 Fig. 4.11 Esempi di applicazione di pseudo colori a un’immagine a livelli di grigio

4.3.2 Tecnica degli pseudo colori

Come abbiamo descritto nei capitoli precedenti, la risposta dell’occhio umano è molto sensibile alla luminosità relativa presente nell’immagine e a repentini cambiamenti di colore. Basandosi su questa osservazione, la tecnica degli pseudo colori associa a ogni intensità dell’immagine iniziale un differente colore, nell’idea che in questo modo l’occhio umano riesca a identificare particolari altrimenti poco percepibili; la risposta è molto soggettiva ed è per questo che sono numerosi gli schemi di trasformazione che vengono applicati. Nell’esempio di Figura 4.11, un’immagine di medicina nucleare che rappresenta una scintigrafia perfusionale polmonare, la scala dei livelli di grigio è associata a due diverse scale di pseudo colori.

4.3.3 Le operazioni algebriche tra immagini

Le operazioni algebriche forniscono come risultato un’immagine f(x,y) i cui valori dei pixel sono costituiti dalla combinazione algebrica dei corrispondenti pixel di due immagini g(x,y) e h(x,y). Operazioni comuni sono addizione, sottrazione, moltiplicazione e divisione. Analizziamo una per una queste operazioni, per capire quali effetti producano sull’immagine risultato dell’elaborazione. L’operazione di addizione fornisce un’immagine i cui pixel sono la somma dei valori corrispondenti delle due immagini; è utilizzata in risonanza magnetica per ridurre l’effetto del rumore. Si consideri un’immagine f(x,y) a cui sia addizionato un rumore n(x,y); l’immagine sarà data da: g(x,y)  f(x,y)  n(x,y)

108

M. Coriasco et al.

Se supponiamo che n(x,y) sia scorrelato e a media nulla, avendo a disposizione N immagini g r (x,y) che rappresentino la stessa scena possiamo calcolare la media come: g ( x, y ) =

1 N 1 N g x , y = f x , y + ∑ ( ) ( ) N ∑ nr ( x, y ) N r =1 r r =1

Ma il rumore è a media nulla, quindi tende ad annullarsi e otteniamo: g ( x, y ) = f ( x, y )

mentre per la varianza vale la relazione

 2 g ( x , y ) =  2 n( x , y ) N Da questo si ricava la deviazione standard come radice quadrata della varianza, ovvero:

 g ( x , y ) =  n( x , y )

N

Ne segue che la deviazione standard del rumore presente nell’immagine risultato è ridotta del fattore 兹莥 N. Una tipica applicazione di questa tecnica la si trova in risonanza magnetica, dove l’acquisizione ripetuta dei medesimi dati in momenti diversi permette di ridurre l’entità del rumore sull’immagine finale, con conseguente aumento del tempo di acquisizione. La sottrazione sostituisce al pixel in esame la differenza tra i valori dei pixel di due immagini; ha un ruolo significativo nell’ambito delle immagini mediche angiografiche. L’obiettivo della sequenza di immagini angiografiche è quello di fornire una rappresentazione nitida di un tratto dell’apparato vascolare. La realizzazione di una sequenza angiografica inizia con l’acquisizione di una o più immagini cosiddette “maschera”. In Figura 4.12 è riportato un esempio di un’immagine maschera con a fianco i possibili valori dei pixel di un dettaglio espressi in una scala di livelli di grigio a 8 bit. Successivamente all’immagine maschera vengono acquisite una serie di immagini contemporanee all’immissione nei vasi di un mezzo di contrasto. In Figura 4.12b è riportato lo stesso dettaglio dell’immagine precedente. Come si può notare, la visibilità dei vasi è notevolmente migliorata e tale apparenza è confermata dai valori numerici dei pixel che differiscono rispetto ai precedenti (si noti la diminuzione dei valori della tabella nelle celle con sfondo più scuro). Per evidenziare maggiormente il tratto interessato dal flusso di mezzo di contrasto occorrerebbe concentrarsi su ciò che è variato tra la Figura 4.12a e la Figura 4.12b. La disponibilità dei valori numerici permette di evidenziare il mezzo di contrasto tramite una sottrazione tra le matrici delle due immagini, cioè ricavando la differenza dei valori numerici dei pixel che si trovano nelle stesse posizioni (pixel omologhi). Una volta effettuata la sottrazione è possibile amplificare la visibilità dei pixel aventi valore diverso da zero, moltiplicando per una costante. Il risultato finale è mostrato in Figura 4.12c. Per migliorare ulteriormente la qualità dell’immagine risultante, tutti i sistemi angiografici prevedono anche una trasformazione logaritmica dei valori dei pixel, al fine

4 Elaborazione di immagini

Fig. 4.12 a Immagine “maschera” e, sotto, la rappresentazione della matrice di un suo dettaglio con i valori numerici delle intensità di grigio dei pixel; b la stessa immagine ottenuta durante l’immissione e la progressione del mezzo di contrasto, e la rappresentazione dei valori numerici delle intensità di grigio assunte dai pixel; c l’immagine ottenuta dopo sottrazione e amplificazione di un fattore 3 e la corrispondente rappresentazione della matrice del dettaglio considerato con i valori numerici dei pixel. È stata inoltre applicata un’inversione di scala dei livelli visibile in d

Fig. 4.13 Esempio di moltiplicazione tra un’immagine radiografica e una maschera ad-hoc; notare come l’effetto della moltiplicazione per un bianco produce nell’immagine risultato la copia del pixel, mentre la moltiplicazione per un nero produce un pixel nero. Grazie alle sfumature intermedie di livelli di grigio, si ottiene nell’immagine risultato una corrispondente sfumatura del bordo

di aumentare la correlazione tra i dati dell’immagine sottratta finale e la concentrazione di mezzo di contrasto. Infine, la moltiplicazione e la divisione consentono di enfatizzare o mascherare i pixel in corrispondenza ai diversi valori assunti dall’immagine moltiplicatore o divisore; si potranno così ottenere degli effetti di trasparenza (alpha blending) che possono essere utili per evidenziare o mascherare zone all’interno dell’immagine (Fig. 4.13).

109

110

M. Coriasco et al.

4.3.4 Gli operatori logici

Se l’immagine è binaria, ovvero nell’immagine sono presenti esclusivamente pixel bianchi o neri, possiamo identificare l’oggetto (foreground) quando i pixel assumono valore 1 e lo sfondo (background) quando i pixel assumono valore 0. Possiamo allora applicare operazioni logiche sui pixel dell’immagine. Le operazioni logiche possono essere unarie, come ad esempio il NOT, e quindi si applicano a una singola immagine, oppure binarie come AND, OR e XOR, che vengono applicate a coppie di immagini che dovranno avere quindi uguale dimensione, a meno di operare solo su specifiche sottoaree delle immagini che abbiano dimensioni coerenti. Ogni operatore logico si applica al singolo pixel al fine di ottenere il risultato, che sarà anch’essa un’immagine binarizzata. Per comprendere meglio quali effetti si producano applicando le operazioni logiche sulle immagini, nella Figura 4.14 sono riportati alcuni esempi.

Fig. 4.14 Esempio di applicazione di operatori logici a immagini binarizzate

4 Elaborazione di immagini

111

4.4 Elaborazioni locali 4.4.1 I filtri convolutivi

I filtri convolutivi sono metodi di filtraggio nel dominio spaziale che si basano su somme di prodotti fra l’immagine originale e opportune matrici scelte sulla base degli obiettivi da perseguire; questa operazione matematica prende il nome di convoluzione. Le convoluzioni operano con maschere quadrate di pixel di dimensioni dispari, in cui i valori costituiscono i pesi assegnati ai pixel nell’intorno del pixel oggetto del calcolo, che occupa la posizione centrale della matrice. Il calcolo del nuovo valore del pixel oggetto di modifica si effettua moltiplicando i valori di luminanza dei pixel nella matrice considerata per i relativi pesi in posizione omologa nella matrice di convoluzione; la somma dei prodotti così ottenuti è normalizzata moltiplicando per il fattore di correzione che si ottiene come inverso della somma dei pesi, e ulteriormente moltiplicata per un fattore di guadagno globale opportunamente scelto. Con un guadagno maggiore di 1 avremo un generale aumento della luminosità dell’immagine risultante, mentre con un guadagno inferiore a 1 (ma sempre maggiore di zero) avremo una diminuzione di tale luminosità. L’esempio di Figura 4.15 può chiarire quanto appena affermato. A seconda del tipo di matrice di convoluzione utilizzata si realizzerà una diversa elaborazione. Gli esempi di Figura 4.16 e 4.17 illustrano, rispettivamente, un’elaborazione che produce uno smoothing (attenuazione dei contorni) e una che produce uno sharpening (esaltazione dei contorni) dell’immagine.

Fig. 4.15 Per applicare un filtro di convoluzione si considera un pixel dell’immagine insieme ai suoi circostanti, inseriti in una matrice quadrata di lato dispari. Si moltiplica poi ciascun valore per il corrispettivo valore del peso nella matrice di convoluzione e si sommano tutti i risultati. Il tutto va moltiplicato ancora per il valore del coefficiente di normalizzazione

112

M. Coriasco et al.

Fig. 4.16 Esempio di filtro convolutivo, matrice di convoluzione e metodo per il calcolo del nuovo valore del pixel. Il valore 75 al centro della matrice viene ricalcolato come indicato e riposizionato (il nuovo valore è 83). Il risultato di tale filtro è uno smoothing dell’immagine, descritto più avanti. Il coefficiente di normalizzazione k viene calcolato facendo la somma dei pesi della matrice di convoluzione

Fig. 4.17 Altro esempio di filtro convolutivo. Il valore 120 al centro della matrice viene ricalcolato come indicato e riposizionato (il nuovo valore è 165). Il risultato di tale filtro è uno sharpening dell’immagine, descritto più avanti

4 Elaborazione di immagini

113

4.4.2 Rivelazione ed evidenziazione dei bordi

Le immagini radiografiche contengono solitamente informazioni relative a strutture con densità simile a quella delle strutture anatomiche che le circondano; queste strutture sono difficilmente percepite dall’occhio in quanto delimitate da una debole discontinuità locale di intensità luminosa. In corrispondenza al passaggio tra la struttura e i tessuti circostanti è presente un contorno o bordo (edge) che deve essere enfatizzato. L’interpretazione dell’immagine si basa sull’individuazione della struttura affidandosi alle caratteristiche morfologiche o irregolarità più o meno marcate ai suoi margini; tali caratteristiche sono molto più evidenti quanto maggiore è la differenza di contrasto tra la struttura stessa e i tessuti circostanti. La definizione dei contorni si propone la rilevazione dei bordi (edge detection), seguita dalla loro estrazione (edge extraction), ovvero la cancellazione del contesto nel quale la struttura è inserita; al termine del procedimento la struttura isolata è più chiaramente analizzabile. Gli algoritmi agiscono isolando e raggruppando pixel con caratteristiche di luminosità simili: poiché si analizzano piccole aree dell’immagine alla ricerca di significative variazioni quantitative tra pixel contigui, queste metodologie rientrano tra le tecniche di elaborazione locale. Per rilevare i bordi facciamo uso di operatori convolutivi di tipo derivativo in grado di agire in tutte le direzioni, rilevando cioè qualunque tipo di contorno a disposizione orizzontale, verticale con gli operatori di Sobel o Prewitt e obliqua, con gli operatori di Kirsh. Nella Figura 4.18 troviamo descritte le matrici 3 3 degli operatori, e in Figura 4.19 degli esempi di elaborazione che fanno uso degli operatori derivativi. Fig. 4.18 Operatori classici di convoluzione di tipo derivativo (edge detection) e le varianti orientate secondo la direzione dei bordi che si intende evidenziare

114

M. Coriasco et al.

Fig. 4.19 Esempi di elaborazioni eseguite con operatori di convoluzione di vari tipi. L’immagine in a è stata ottenuta con l’operatore Laplaciano, quella in b con operatore di Kirsch eseguito verso NE, quella in c con operatore di Sobel eseguito verso SO, le immagini in d, e e f con operatore di Prewitt rispettivamente eseguito verso E, N e SO. Si noti come essi siano in grado di evidenziare le informazioni relative ai bordi in modo diverso, ricavando effetti particolari di tridimensionalità; per una maggior percezione degli effetti delle elaborazioni, le immagini sono state equalizzate (immagini elaborate con il software Eidoslab)

Un altro filtro convolutivo che esaminiamo si basa sull’operatore laplaciano, che prende in analisi aree dell’immagine costituite da gruppi di cinque pixel, di cui uno centrale e altri quattro contigui nei punti cardinali; valori dei pixel circostanti vengono sommati e, dal valore risultante, viene sottratto il quadruplo del valore del pixel centrale. Il risultato costituisce il nuovo valore del pixel centrale. Interessante notare che il filtro laplaciano è indipendente dalla direzionalità del contorno, ed è in grado di evidenziare all’interno dell’immagine, bordi orientati secondo i quattro punti cardinali (cross operator). Così facendo, la zona omogenea, interna al bordo, viene cancellata, mentre dove sono presenti differenze di luminosità (appunto in prossimità dei bordi), esse vengono amplificate. L’immagine risultante mantiene quindi soltanto i contorni, mentre le zone a luminosità costante vengono azzerate (esiste poi un’ulteriore versione del filtro Laplaciano, la versione square, di cui è visibile un esempio in Figura 4.20, che considera anche le direzioni diagonali e quindi permette di evidenziare i bordi lungo tutte le direzioni della “Rosa dei venti”). Nella Figura 4.21 sono riportati degli esempi di estrazione dei contorni, utilizzando diversi operatori convolutivi, la cui matrice applicata è espressa all’interno dell’immagine. L’utilità degli algoritmi di edge extraction si rende evidente ovunque sia necessaria un’accurata valutazione dei contorni di una formazione. L’elaborazione risulta poco

4 Elaborazione di immagini

115

Fig. 4.20 Esempi di filtraggio con matrici di convoluzione secondo la tecnica indicata nel testo. Gli esempi sono stati generati utilizzando il radiogramma digitale di una mano (in formato bitmap) e facendo eseguire i calcoli al programma EidosLab. L’operatore Laplaciano funziona come edge detection, evidenziando i bordi e cancellando le regioni a luminanza uniforme, gli operatori di Sobel e Kirsh come edge enhancement. Le aree a densità più omogenea vengono “azzerate” nel caso dell’edge detection (nel quale la somma dei pesi della matrice di convoluzione vale 0), mentre vengono mantenute nel caso dell’edge enhancement (in cui la matrice di convoluzione ha somma dei pesi pari a 1)

Fig. 4.21 Altri esempi di filtraggio convolutivi con operatori vari, eseguite con le matrici indicate nelle immagini in basso a sinistra. Si noti come nelle immagini si abbia progressivamente un aumento della nitidezza dei particolari, pagata però in termini di amplificazione del rumore

116

M. Coriasco et al.

efficace se la discontinuità di luminosità è molto limitata, mentre può dare un significativo contributo rinforzando contorni frammentari e poco definiti. Gli algoritmi di edge enhancement agiscono in modo analogo, mantenendo però le informazioni di contrasto delle diverse strutture (Figg. 4.20 e 4.21). Mettendo a confronto le matrici di convoluzione, si può osservare come negli algoritmi di edge extraction, la somma dei pesi è uguale a 0, mentre negli algoritmi di edge enhancement tale somma è diversa da zero, solitamente uguale a 1.

4.4.3 La riduzione del rumore e lo smoothing

Consideriamo una matrice di convoluzione 3 3 a pesi unitari; si ottiene che il risultato dell’operazione coincide con la media aritmetica dei valori dei pixel presi in considerazione; ripetendo questa operazione per tutti i pixel dell’immagine (filtraggio a media mobile), potremo osservare che le fluttuazioni dei valori medi ottenuti saranno inferiori a quelle dei valori dei pixel originali. L’effetto della media è quello infatti di attenuare (smoothing) le variazioni casuali e repentine, che si compensano vicendevolmente nel calcolo. Se nell’immagine originale è presente un disturbo, applicando il filtraggio a media mobile, otterremo una nuova immagine in cui il contributo del rumore sarà ridotto. Lo svantaggio associato a questo tipo di filtraggio è la diminuzione di nitidezza, il cosiddetto effetto sfocatura (blurring). È possibile considerare matrici più ampie, 5 5 o 7 7, con un conseguente aumento dell’efficacia nella riduzione del rumore ma anche dell’effetto di blurring (Fig. 4.22). Per limitare l’effetto di sfocatura possiamo considerare valori diversi dei pesi nella matrice di convoluzione, in cui i pixel all’interno della matrice vengono moltiplicati per un coefficiente positivo in funzione della distanza rispetto al centro (filtraggio a media ponderata). Nel caso in Figura 4.23 è stata utilizzata una matrice di convoluzione formata da tutti uno eccetto il pixel centrale che ha peso zero (filtraggio a media locale) e una matrice con i pesi ponderati.

Fig. 4.22 Effetto di uno smoothing basato sul valore medio. A sinistra l’immagine di partenza, al centro quella dopo l’applicazione di una matrice di smoothing a pesi unitari di 3×3 e 5×5. Si noti il progressivo calo dell’effetto del rumore e il corrispondente aumento del blurring

4 Elaborazione di immagini

117 Fig. 4.23 Esempio di smoothing tramite convoluzione con filtraggio a media locale e con filtraggio a media ponderata

Fig. 4.24 Esempio monodimensionale di elaborazione con filtro mediano

4.4.4 Il filtro mediano

Un modo alternativo di operare filtraggi sulle immagini è quello di utilizzare degli operatori di tipo statistico. Il più noto di essi è il filtro mediano, molto efficace per rumori di tipo impulsivo, come quello denominato “sale e pepe”, in cui il rumore assume l’aspetto di puntini bianchi o neri sovrapposti all’immagine. Per comprendere il meccanismo con cui opera il filtro mediano da un punto di vista operativo, consideriamo il caso monodimensionale, potendosi facilmente estendere quanto detto al caso a due dimensioni. Preso un numero dispari di pixel (nell’esempio di Figura 4.24 ne consideriamo 5), si sostituisce il valore del pixel centrale con il valore mediano della sequenza di cui fa parte. Ricordiamo che in un insieme ordinato di un numero dispari di elementi, il valore mediano è quello che occupa la posizione centrale della sequenza. La sequenza di passi è la seguente: • si consideri una fila di pixel sulla quale si fa scorrere una finestra mobile costituita da un numero dispari di pixel; • si prenda la sequenza ordinata dei livelli di luminanza dei pixel che ricadono all’interno della finestra; • infine, si sostituisca il valore del pixel che occupa il centro della finestra con il valore mediano della sequenza ordinata. Nella serie rappresentata in Figura 4.24, formata da 158, 65, 244, 78, 101 il valore mediano è il numero 101.

118

M. Coriasco et al.

A differenza del filtro a media mobile, che sostituisce al pixel un valore calcolato, nel filtro mediano il valore sostituito al pixel è ancora un valore dell’immagine originale; lo scopo è di ridurre il rumore preservando la nitidezza dell’immagine. Il motivo dovrebbe essere ora chiaro: si osservi il pixel dell’esempio in figura: esso vale 244, e intorno a sé ha due pixel i cui valori sono molto più bassi, 65 e 78. Si tratta certamente di un “granello di sale” e, come si vede, esso viene sostituito con il valore 101, pertanto scompare. Notiamo che i primi due pixel sono stati copiati sulla destinazione (pixel con bordo nero tratteggiato), poiché la finestra mobile uscirebbe a sinistra dai confini della sequenza, laddove non ci sono valori da considerare; possiamo inoltre vedere come il filtro mediano sia già stato applicato a tre pixel della sequenza, quelli che in figura appaiono con il bordo rosso tratteggiato. Nel secondo esempio di Figura 4.25 è stato applicato il filtro mediano al caso bidimensionale di un’immagine. La finestra mobile questa volta è una matrice 3 3. La matrice maschera può scorrere lungo le due dimensioni, in modo da poter coprire tutti i pixel dell’immagine (normalmente si procede per righe successive). Nell’esempio il pixel preso in considerazione ha luminanza 25, quindi è molto scuro (granello di pepe). Prendendo in esame la sequenza ordinata dei valori di luminanza dei pixel della maschera, si osserva che il valore mediano è 119 e lo si sostituisce al valore 25. Il “granello di pepe” è stato eliminato. Anche in questo caso si verifica il problema dell’applicazione del filtraggio ai bordi estremi dell’immagine, per cui la prima e l’ultima riga, così come la prima e l’ultima colonna dell’immagine saranno ricopiate direttamente sull’immagine destinazione (pixel con bordo nero tratteggiato); inoltre, nell’esempio vediamo che il filtro mediano è già stato applicato alla prima riga e a un pixel della seconda (pixel con bordo rosso tratteggiato). Una strategia per elaborare immagini con il filtro mediano può essere quella di eseguire prima un tentativo con una finestra 3 3, poi 5 5 e così via, fino a quando non si ottengono più miglioramenti dell’immagine ma un visibile degrado della qualità. In Figura 4.26 un esempio di applicazione del filtro mediano a una immagine che presenta un disturbo di tipo “sale e pepe”. Fig. 4.25 Esempio bidimensionale di elaborazione con filtro mediano. La finestra scorrevole è una matrice n×n, con n di valore dispari. Dopo avere disposto in una sequenza ordinata i valori della matrice, si preleva il valore dell’elemento centrale (mediano) e lo si mette al posto del vecchio valore del pixel. Come si osserva, i valori molto elevati o molto bassi (sale e pepe) verranno abbassati o innalzati sulla base del contesto nel quale si trovano

4 Elaborazione di immagini

119 Fig. 4.26 Effetti di alcuni tipi di filtro messi a confronto. In 1 vi è l’immagine originale, artificialmente degradata da rumore tipo “sale e pepe”. In 2 è visibile il risultato dell’applicazione su questa di un filtro convolutivo come quello citato nel testo, a matrice 3×3. In 3 è stato applicato un filtro identico ma a matrice 5×5, con ulteriore riduzione del rumore ma conseguente aumento del blurring. In 4 l’immagine è stata elaborata applicando il filtro mediano. Si noti la quasi scomparsa della punteggiatura bianca e nera e il non rilevante aumento del blurring. Questo è dovuto alla sostanziale differenza tra i filtri convolutivi e il filtro mediano: nei primi si sostituisce totalmente il valore di un pixel con un valore medio tra quelli circostanti, mentre nel filtro mediano un pixel viene sostituito il valore di un altro pixel che tuttavia appartiene ancora all’immagine

4.4.5 L’unsharp masking

L’unsharp masking è un tipo di elaborazione che si usa nell’ambito della radiologia digitale per enfatizzare la visibilità dei dettagli presenti nell’immagine; il procedimento coinvolge diverse operazioni. Inizialmente si esegue uno smoothing dell’immagine originale, con uno dei metodi descritti nel paragrafo 4.4.3. Questa operazione attenua i dettagli presenti nell’immagine. Ora si dispone di due immagini: • l’originale contiene inalterate le informazioni relative alla globalità dell’immagine e dei piccoli dettagli; • quella sottoposta a smoothing, in cui le informazioni relative ai dettagli risultano attenuate e l’immagine appare sfuocata, per effetto del filtraggio. Successivamente, si sottrae all’immagine originale l’immagine sottoposta a smoothing, ottenendo una differenza detta maschera (mask), contenente le sole informazioni relative al contrasto dei piccoli dettagli, rimosse nel passo precedente.

120

M. Coriasco et al.

Fig. 4.27 Effetto dell’algoritmo di unsharp masking. La a è l’immagine di partenza, la b è quella ottenuta dopo l’applicazione di filtro smoothing 5 5, la c è l’immagine risultante contenente soltanto le informazioni relative ai contorni. Se si somma la a alla c si ottiene un’immagine che contiene maggiori informazioni relative ai contorni

La maschera dovrà essere opportunamente pesata, moltiplicando i valori numerici ottenuti per un peso K (con K  0); il risultato della pesatura è infine sommato all’immagine iniziale, esaltando la visibilità dei piccoli dettagli. Si è quindi realizzata un’operazione di aumento della nitidezza dell’immagine (sharpening) utile, per esempio, nel caso di un radiogramma dell’articolazione tibio-tarsica, nel quale si apprezza un evidente aumento della nitidezza con cui è rappresentata la parte ossea (Fig. 4.27).

4.4.6 Gli operatori morfologici

La morfologia è la scienza che studia le forme. Gli operatori morfologici costituiscono strumenti di elaborazione molto importanti per rimuovere irregolarità presenti nell’immagine.

4 Elaborazione di immagini

121 Fig. 4.28 Esempio di applicazione dell’operatore di base erosione

Fig. 4.29 Esempio di applicazione dell’operatore di base dilatazione

Lo strumento di analisi è l’elemento strutturante, cioè una maschera di qualsivoglia forma il cui centro corrisponde al pixel corrente. La variazione di forma e dimensione dell’elemento strutturante permette di estrarre informazioni utili sulla geometria delle diverse parti dell’immagine e sulle loro relazioni. Le immagini da elaborare possono essere in bianco e nero oppure a toni di grigio; per semplicità, quelle considerate nel seguito sono binarie, con background bianco (1) e foreground nero (0). È consuetudine considerare una finestra 3 3 il cui punto centrale è quello di riferimento, sfruttando la metrica della 8-vicinanza. Verranno perciò ricercate le coincidenze (matching) dell’elemento strutturante in varie posizioni. Gli operatori di base sono l’erosione che rimuove pixel dai bordi di regioni e la dilatazione che li aggiunge. I due operatori sono basati sulle seguenti regole: • erosione: se tutto l’elemento strutturante giace all’interno di una regione nell’immagine in analisi, allora il pixel centrale dell’immagine elaborata è posto uguale a 0. Gli 8-vicini di un pixel sono tutti elementi dell’oggetto (Fig. 4.28); • dilatazione: se almeno un pixel dell’elemento strutturante giace all’interno della regione nell’immagine in analisi, allora il pixel centrale dell’immagine elaborata è posto uguale a 0. Un pixel ha almeno un elemento dell’oggetto fra gli 8-vicini (Fig. 4.29).

122

M. Coriasco et al.

Fig. 4.30 Esempio di applicazione dell’operatore complesso di apertura

Fig. 4.31 Esempio di applicazione dell’operatore complesso di chiusura

Partendo dagli operatori elementari di erosione e dilatazione, combinandoli insieme otteniamo due operatori complessi detti: • apertura: erosione seguita da dilatazione che elimina frange nei bordi e piccole lacune, separa oggetti debolmente connessi e rimuove regioni piccole; • chiusura: dilatazione seguita da erosione che riempie buchi e piccole concavità nonché rafforza la connessione di regioni unite debolmente. La Figura 4.30 illustra un esempio di applicazione dell’operatore di apertura, mentre la Figura 4.31 un esempio di applicazione dell’operatore di chiusura. Gli operatori morfologici di base, vale a dire l’erosione e la dilatazione, possono essere estesi a immagini con toni di grigio, per una loro più ampia applicazione.

4.5 Elaborazioni globali 4.5.1 L’istogramma e il miglioramento del contrasto

Un metodo per migliorare il contrasto consiste nel modificare il livello di luminanza di un pixel sulla base dei valori assunti da tutti quelli che costituiscono l’immagine. Il calcolo del valore da sostituire nell’immagine elaborata si basa sull’analisi statistica dei valori assunti dai pixel. Alcuni autori indicano questo tipo di elaborazione come globale in quanto sono presi in considerazione tutti i valori assunti dai pixel dell’immagine. Lo strumento utilizzato è l’istogramma dei livelli di luminanza, cioè la distribuzione di frequenza dei livelli di luminanza assunti dai pixel; si rappresenta mediante una tabella

4 Elaborazione di immagini

123 Fig. 4.32 Due immagini molto semplici, composte da soli 4 pixel e aventi lo stesso identico istogramma

che riporta la frequenza dei pixel di un’immagine il cui valore cade in intervalli definiti della scala dei grigi; la tabella può essere convertita in un diagramma per una visualizzazione più compatta e comprensibile. Supponendo che l’immagine abbia dimensione M N, allora n  M N è il numero totale dei pixel dell’immagine, posto L il numero finito e discreto di livelli di grigio, definiamo fk come la frequenza del k-esimo livello di grigio nell’immagine originale, calcolato tramite il seguente rapporto: fk  nk /n dove nk è il numero di occorrenze con cui il k-esimo livello di grigio compare nell’immagine originale. L’insieme di tutti i valori fk calcolati costituisce l’istogramma discreto normalizzato (la frequenza assumerà valori compresi tra 0 e 1) di un’immagine. L’istogramma fornisce una raffigurazione sintetica delle caratteristiche di luminosità dell’immagine, trascurando però ogni informazione relativa al contenuto e alla posizione dei singoli pixel. Di conseguenza, più immagini possono essere caratterizzate dallo stesso istogramma, come nell’esempio in Figura 4.32, in cui sono rappresentate due semplici immagini di dimensione 2 2. Per meglio comprendere il metodo, consideriamo ora un’immagine di 64 64 pixel a 8 livelli di grigio (dal livello 0 al livello r7); detto nk il numero di occorrenze di un particolare valore rk di luminanza, nella quarta colonna della Tabella 4.1 sono riportati gli ipotetici valori di fk . Il grafico dell’istogramma è riportato nella Figura 4.33. Determinato l’istogramma di un’immagine è necessario, al fine di migliorarne il contrasto, applicare ai livelli di grigio una trasformazione T, che renda l’istogramma quanto più possibile uniforme. Il procedimento viene detto uniformazione o equalizzazione dell’istogramma. Tabella 4.1 Calcolo dell’istogramma rk

rk

nk

fk=nk/n

r0 r1 r2 r3 r4 r5 r6 r7

0 1/7 2/7 3/7 4/7 5/7 6/7 7/7

451 737 1147 819 532 205 123 82

0,11 0,18 0,28 0,20 0,13 0,05 0,03 0,02

124

M. Coriasco et al.

Fig. 4.33 Forma grafica dell’istogramma dei livelli di grigio della Figura 4.25

Attraverso una dimostrazione, che lasciamo al lettore come approfondimento, si determina che la distribuzione cumulativa delle frequenze è una funzione ottimale come funzione di trasformazione per l’equalizzazione dell’istogramma. Le immagini sono discrete, e la forma discreta della distribuzione cumulativa si ottiene sostituendo l’integrale con la sommatoria: k

sk = T ( rk ) = ∑ j =0

nj n

k

= ∑ pr ( rj ) j =0

Come esempio, consideriamo nuovamente l’immagine di 64 64 pixel con 8 livelli di grigio la cui distribuzione sia quella calcolata precedentemente. La funzione di trasformazione è data da: 0

s0 = T ( r0 ) = ∑ pr ( rj ) = 0, 11 j =0 1

11 + 0, 18 s1 = T ( r1 ) = ∑ pr ( rj ) = 0,1 j =0 2

s2 = T ( r2 ) = ∑ pr ( rj ) = 0, 11 + 0, 18 + 0, 28 j =0

E così via per tutti i valori di sk, come nella Tabella 4.2. Tabella 4.2 Trasformazione dei livelli nk

sk

451 1188 2335 3154 3686 3891 4014 4096

0,11 0,29 0,57 0,77 0,90 0,95 0,98 1,0

4 Elaborazione di immagini

125 Fig. 4.34 Funzione di trasformazione derivata dalla distribuzione cumulativa di probabilità discreta

La procedura di equalizzazione spesso riduce il numero di livelli di grigio facendo corrispondere a uno o più livelli originali uno nuovo, in modo tale che il numero di pixel in ogni classe di livello di grigio sia prossimo al valore medio dell’istogramma (numero di punti diviso per il numero di livelli). La funzione di trasformazione assume allora l’aspetto di Figura 4.34. Nel caso preso in analisi sono stati considerati otto livelli di grigio uniformemente spaziati, per cui ciascuno dei valori trasformati sk deve essere assegnato al più vicino livello valido come indicato nella quarta colonna della Tabella 4.3. Osserviamo che vi sono solo sei distinti livelli di grigio per cui ridefiniamo i livelli sk e otteniamo la quinta colonna della Tabella 4.3. Poiché r0  0 è stato trasformato in s0  1/7, vi sono 451 pixel trasformati con questo nuovo valore corrispondente a p s (s k )  0,11; analogamente, vi sono 737 pixel con valore s1  2/7, corrispondente a p s (s k )  0,29, 1147 pixel con valore s3  4/7, 819 con s4  5/7, 532 con s5  6/7. Poiché r5, r6 e r7 sono trasformati in s5  1, vi saranno ora 205  123  82 pixel con questo nuovo valore. L’istogramma che si ottiene è quello schematizzato nella Figura 4.35, in cui è descritta graficamente la trasformazione dall’immagine originale a quella equalizzata per il tramite della distribuzione cumulativa. Le frecce puntinate rappresentano il passaggio tra il livello di grigio dell’immagine originale e il livello equalizzato più vicino a quello determinato dalla funzione di trasformazione; notare che non tutte le trasformazioni sono state disegnate per non appesantire la rappresentazione, ma nella Tabella 4.3 tutti i rk livelli devono essere convertiti su un nuovo livello di grigio sk dell’immagine destinazione. Tabella 4.3 Tabella di trasformazione k

rk

“sk trasformati”

“Valori sk”

sk

ps(sk)

0 1 2 3 4 5 6 7

0 0,14 0,28 0,42 0,57 0,71 0,85 1

0,11 0,29 0,57 0,73 0,90 0,95 0,98 1

1/7 2/7 4/7 5/7 6/7 1 1 1

s0 s1 s2 s3 s4 s5 – –

0,11 0,18 0,28 0,20 0,13 0,10 – –

126

M. Coriasco et al.

Fig. 4.35 Applicazione della trasformazione all’istogramma dei livelli di grigio, ottenendo la nuova distribuzione che rappresenta la migliore approssimazione della equalizzazione dell’immagine. a Distribuzione delle frequenze dei livelli di grigio nell’immagine originale; b distribuzione cumulativa delle frequenze dell’immagine originale che funge da funzione di trasformazione; c distribuzione delle frequenze dell’immagine equalizzata

Osserviamo che lavorando nel dominio discreto non si ottiene un istogramma equalizzato perfettamente piatto. Questa discrepanza è dovuta all’approssimazione nel calcolo dei nuovi livelli e alla natura discreta dei livelli stessi, che causano la non uniformità dell’istogramma; si può inoltre notare che il livello massimo è necessariamente presente, per effetto del meccanismo di trasformazione utilizzata. L’equalizzazione porterà a un’immagine che non è generalmente migliorata dal punto di vista estetico, ma che può essere un’immagine in cui vengono messe in evidenza delle particolarità che in precedenza erano poco visibili. Per rendere più esplicito l’effetto di questa trasformazione, vediamo in Figura 4.36 l’equalizzazione dell’istogramma applicato a un esempio reale. Infine, riportiamo due casi operativi in cui è opportuno applicare l’equalizzazione dell’istogramma: • si vogliono confrontare due immagini A e B per individuare quali sono le differenze tra di loro. Se le immagini sono state ottenute sotto diverse condizioni di luminosità è necessario compensare queste differenze, altrimenti si potrebbero ottenere diversi valori di grigio per gli stessi pixel, anche se le due immagini rappresentano lo stesso soggetto. Si ottiene la compensazione trasformando la scala dei livelli di grigio dell’immagine A, in modo che il suo istogramma uguagli quello dell’immagine B oppure trasformando ambedue le immagini in modo da ottenere un istogramma standard; • è richiesto di misurare alcune proprietà di un’immagine A per classificarla o descriverla. Se queste proprietà dipendono dai livelli di grigio presenti in A, allora i loro valori saranno funzione delle condizioni di luminosità rispetto alle quali A è stata ottenuta; questa sensibilità può essere ridotta agendo su A con l’equalizzazione.

4 Elaborazione di immagini

127 Fig. 4.36 Esempio reale di equalizzazione dell’istogramma dei livelli di grigio

Nell’ambito dell’imaging radiologico, l’equalizzazione può essere utilizzata in quelle situazioni in cui le immagini originali sono intrinsecamente a basso contrasto ed è importante evidenziare in un’unica rappresentazione tutte le strutture presenti. In particolare, ci sono due situazioni che presentano questo tipo di problematica, la mammografia digitale e l’imaging cosiddetto portale, per la verifica di posizionamento del paziente in radioterapia. Le elaborazioni peculiari della mammografia digitale saranno descritte nel capitolo 5, mentre in questa sede possiamo considerare alcuni esempi di equalizzazioni di istogramma applicati alle immagini proiettive di radioterapia. Dal punto di vista fisico, queste immagini hanno scarso contrasto per il fatto che sono ottenute con fasci di radiazioni per terapia che hanno energia molto più elevata rispetto a quelli utilizzati in radiologia. Nell’immagine, il medico dovrà identificare i contorni del fascio di trattamento e le strutture anatomiche utili a valutare il corretto posizionamento come, in particolare, parti ossee, parenchima polmonare, profili di tessuti. L’applicazione dell’equalizzazione consente di evidenziare contemporaneamente in un’unica immagine queste strutture caratteristiche, come mostrato nell’esempio di Figura 4.37. Esistono diverse varianti nelle modalità di applicazione dell’equalizzazione dell’istogramma, che vengono indicate con le seguenti sigle: • Global Histogram Equalization (GHE): è il processo descritto in precedenza di equalizzazione sulla base della distribuzione complessiva dei valori nell’istogramma di origine; • Adaptive Histogram Equalization (AHE): agisce equalizzando localmente regioni di dimensioni minori rispetto all’intera immagine ed è utile in particolare quando non si è interessati al contributo di aree estese dell’immagine come, ad esempio, la parte di sfondo di un soggetto; • Contrast Limited Adaptive Histogram Equalization (CLAHE): in questa variante si fissa il valore massimo di pendenza della LUT di equalizzazione calcolata a partire dall’istogramma, che equivale a definire un’altezza massima di una componente dell’istogramma rispetto a quelle adiacenti;

128

M. Coriasco et al.

Fig. 4.37 Esempi di tipologie di equalizzazione dell’istogramma. a,b Immagine portale originale per trattamento di tumore al seno; c immagine processata con metodo AHE; d immagine processata con metodo CLAHE

• SHarpened Adaptive Histogram Equalization (SHAHE): consiste nell’applicazione di un filtro di sharpening prima di realizzare il processo di AHE; • Multiscale Adaptive Histogram Equalization (MAHE): l’immagine viene prima scomposta nelle sue componenti di diversa frequenza spaziale, a ciascuna delle quali viene applicato il processo AHE per poi ricombinare i risultati ottenuti nell’immagine finale.

4.6 Elaborazioni nel dominio delle frequenze spaziali 4.6.1 La frequenza spaziale

Nei capitoli precedenti è già stato introdotto il concetto di frequenza spaziale presente in un’immagine. In questo paragrafo si vuole introdurre la possibilità di effettuare elaborazioni di un’immagine considerando e alterando le frequenze spaziali presenti in essa, operazione che viene denominata elaborazione nel dominio delle frequenze. Il sistema visivo umano è predisposto per rilevare transizioni di luminosità: sono queste che portano informazione. Il numero di transizioni di luminosità in un intervallo di spazio, assunto come unitario, costituisce la frequenza spaziale. La Figura 4.38 rappresenta immagini con uguali dimensioni costituite da reticoli ottenuti con alternanza di strisce bianche e nere: al diminuire dello spessore delle strisce, aumenta il loro numero, cioè la frequenza spaziale è più elevata. Quanto visto nel primo capitolo relativamente al teorema di Fourier per un segnale che varia nello spazio e nel tempo può essere esteso anche al caso bidimensionale delle

4 Elaborazione di immagini

129 Fig. 4.38 Schema di frequenza spaziale rilevata su un’immagine. Si può osservare nei grafici sottostanti le immagini che le variazioni di livello influenzano la frequenza del segnale misurato lungo una direzione

Fig. 4.39 Esempi di immagini con andamento sinusoidale con differente periodo e direzione e risultato della somma pesata

immagini. In altre parole, un’immagine può essere scomposta nella somma di un’immagine uniforme e di una serie di immagini rappresentanti ciascuna un singolo pattern sinusoidale di ampiezza, frequenza e fase opportunamente definite. La Figura 4.39 mostra un esempio di immagine e della sua scomposizione nelle diverse componenti con frequenza spaziale univoca. L’ultima immagine a destra rappresenta, infatti, la somma mediata delle 4 immagini precedenti. Pur non essendo intuitivo, questo tipo di operazione può essere effettuata a partire da qualunque tipo di immagine, estendendo la serie delle immagini sinusoidali componenti.

4.6.2 La trasformata di Fourier

È possibile ottenere una rappresentazione delle diverse frequenze spaziali presenti in un’immagine, attraverso l’uso dello strumento matematico denominato trasformata discreta di Fourier (Discrete Fourier Transform, DFT). La DFT trasforma un’immagine nel dominio spaziale nella corrispondente distribuzione delle frequenze, in cui ogni valore è espresso nel campo dei numeri complessi e rappresenta una delle frequenze spaziali componenti l’immagine. Se nel dominio spaziale sia-

130

M. Coriasco et al.

Fig. 4.40 Esempi di trasformate di Fourier (visualizzazione del modulo in valore assoluto) di immagini con pattern sinusoidale e della loro somma pesata; la trasformata è stata ingrandita fortemente per apprezzarne il contenuto informativo altrimenti molto labile

mo abituati a considerare l’immagine come una distribuzione lungo le coordinate x e y di valori di luminanza, nel dominio delle frequenze, in cui vengono studiate le variazioni dei valori dei pixel nelle direzioni spaziali, la stessa immagine può essere rappresentata come una distribuzione delle frequenze spaziali in essa presenti lungo le componenti indicate con u e v. In tale tipo di rappresentazione, è possibile analizzare le frequenze spaziali che compongono l’immagine osservando il modo in cui esse si distribuiscono. Consideriamo, ad esempio, il modulo della trasformata di Fourier delle immagini con andamento sinusoidale e della loro somma dell’esempio precedente, come mostrato in Figura 4.40. Per ciascuna immagine sinusoidale, la trasformata di Fourier evidenzia tre punti. Il punto centrale è indicativo del valore medio di luminanza dell’immagine stessa, mentre gli altri due punti sono associati alla frequenza spaziale. Come è evidente considerando i diversi esempi, al crescere della frequenza spaziale i valori della trasformata si allontanano dal centro dell’immagine. È quindi intuitivo che le basse frequenze confluiranno nella parte centrale dell’immagine del modulo della trasformata di Fourier, mentre le alte frequenze occuperanno le regioni più periferiche. La trasformata dell’immagine somma evidenzia i punti associati a tutte le frequenze componenti. Le dimensioni dell’immagine sono identiche prima e dopo applicazione di DFT, ma cambia il valore che ciascun pixel assume; nel dominio spaziale avremo dei valori discreti di luminanza (es. 0, 1, ...), mentre la DFT avrà valori anche molto elevati. Ciò comporta delle difficoltà di rappresentazione dello spettro di frequenza, per cui normalmente viene visualizzata una distribuzione del modulo delle frequenze applicando una LUT logaritmica, in modo da compensare visivamente l’ampia gamma dinamica dello spettro. Per immagini più complesse di quelle dell’esempio di Figura 4.40, la trasformata di Fourier evidenzia uno spettro completo di frequenze con diverse intensità, come mostrato nella Figura 4.41. Nella distribuzione delle frequenze, la presenza di corone circolari, centrate sullo spettro stesso, indica come l’energia luminosa dell’immagine si distribuisce ai vari livelli di frequenza. Sui cerchi più prossimi al centro dello spettro si rilevano i contributi relativi alle basse frequenze, mentre sui cerchi più distanti dal centro si rilevano i contributi relativi alle alte frequenze. Nell’ottica di un’elaborazione è

4 Elaborazione di immagini

131 Fig. 4.41 Esempio di elaborazione globale nel dominio trasformato, con filtri di tipo passabasso e passa-alto, per eliminare selettivamente nell’immagine le componenti a bassa o ad alta frequenza

possibile eliminare parte delle frequenze (la parte centrale delle basse frequenze o quella periferica delle alte frequenze) e successivamente ricostruire l’immagine nel dominio dello spazio, applicando alla distribuzione delle frequenze la trasformata discreta di Fourier inversa (Inverse Discrete Fourier Transform, IDFT) rendendo l’informazione nuovamente fruibile all’occhio umano.

4.6.3 Proprietà dell’immagine nel dominio trasformato

La trasformata di Fourier di un’immagine digitale, o in termini più generici di una funzione bidimensionale reale, presenta numerose proprietà matematiche utili e interessanti. Una loro trattazione completa esula dagli scopi di questo testo, ma si può citare ad esempio che la trasformata di Fourier e la sua inversa sono operazioni lineari per cui, applicando la trasformata a una combinazione lineare di immagini, si ottiene la combinazione lineare delle loro singole trasformate. Altre proprietà sono legate alla natura di

132

M. Coriasco et al.

numero complesso del risultato dell’operazione, che quindi prevede la possibilità di indicare i valori in termini di componente reale e immaginaria oppure in termini di modulo e fase. Di particolare interesse sono le proprietà di simmetria che presenta la trasformata per cui, indicando con u e v le componenti in frequenza nelle due direzioni, si ha che il modulo della trasformata di Fourier A obbedisce alla relazione: A(u,v)  A(-u,-v). In altri termini, nelle immagini delle trasformate di Fourier è possibile notare una simmetria centrale, dove il centro rappresenta l’origine del sistema di riferimento del dominio delle frequenze. Queste proprietà vengono sfruttate, ad esempio, nell’ambito del processo di acquisizione delle immagini in risonanza magnetica. In questa metodica, i segnali di radiofrequenza indotti e rilevati interagendo con i tessuti del paziente, vengono memorizzati in uno spazio di memoria che compone direttamente le immagini nel dominio delle frequenze, denominato spazio K. Successivamente, tramite la trasformata di Fourier, è possibile ricostruire le immagini di risonanza nel consueto dominio spaziale. La simmetria dell’immagine nel dominio delle frequenze viene sfruttata, ad esempio, in alcune tecniche di acquisizione rapide che prevedono la raccolta dei dati che compongono la metà dello spazio K (tecniche half-Fourier), permettendo comunque una ricostruzione completa dell’immagine ribaltando i dati ottenuti nella porzione di memoria vuota.

4.6.4 Le tecniche di filtraggio nel dominio trasformato

Cercando un nesso esplicativo tra dominio spaziale e dominio trasformato si può ben intuire come le frequenze più basse (relative a funzioni di base con un ridotto numero di oscillazioni) possono essere associate alla ricostruzione di contenuti informativi spaziali a luminosità poco variabile quali sfondi o zone dell’immagine a intensità uniforme. Le frequenze più elevate (relative a funzioni di base con un numero anche notevole di oscillazioni) possono essere associate alla ricostruzione di contenuti informativi spaziali quali oggetti, dettagli, bordi, contorni e, in generale, a zone con grande variabilità di luminanza. Riflettendo su quanto esposto è chiaro che, sopprimendo nello spettro dell’immagine le alte frequenze, si attenuino nel dominio spaziale i dettagli dell’immagine, introducendo come effetto collaterale una sfocatura; è altrettanto evidente che sopprimendo le basse frequenze si attenuino nel dominio spaziale gli elementi di sfondo, lasciando in evidenza i dettagli e i contorni. I filtri nel dominio delle frequenze operano attenuando o al limite eliminando parti delle frequenze componenti l’immagine; l’individuazione delle frequenze su cui operare è compiuta identificando una soglia detta frequenza di taglio. Il valore della frequenza di taglio è molto importante poiché determina la quantità di frequenze spaziali componenti che viene conservata o eliminata nelle operazioni di filtraggio. Un filtraggio che mantiene pressoché inalterate le basse frequenze è denominato passabasso, al contrario un filtraggio che preserva le alte frequenze è denominato passa-alto. Un filtro passa-basso è utile per ridurre gli effetti del rumore presente nelle immagini che generalmente è associabile alla presenza di alte frequenze.

4 Elaborazione di immagini

133

Sfruttando l’effetto di sfocatura introdotto dalla tipologia di filtraggio, la tecnica permette di smussare le immagini che presentano il fenomeno dei falsi contorni, cioè una separazione evidente tra livelli di luminanza, dovuta a una quantizzazione operata con un numero insufficiente di livelli di grigio. Un filtro passa-alto è utile, invece, per evidenziare bordi e contorni e accentuare le frontiere che separano i pixel con valori simili di livello.

4.6.5 Applicazioni dei filtri in frequenza alle immagini

Per eseguire un filtraggio basato sulle frequenze, sarà necessario eseguire la trasformata discreta di Fourier. I tempi di elaborazione della trasformata sono normalmente elevati; con l’attuale tecnologia, un’immagine di dimensioni dell’ordine di 1024 pixel per lato l’operazione può richiedere anche diversi minuti. Nel caso in cui l’immagine sia quadrata e le dimensioni siano una potenza del due (256, 512, 1024, ...), i tempi di calcolo sono drasticamente ridotti utilizzando la versione veloce della trasformata, detta Fast Fourier Transform (FFT). Una volta ottenuta l’immagine nel dominio trasformato, a fronte di un’analisi dello spettro di ampiezza delle frequenze, sarà possibile applicare una riduzione o un’enfasi a intervalli di frequenze opportunamente scelti in base al risultato che si vuole ottenere. Operando successivamente la trasformata inversa sullo spettro modificato, si otterrà l’immagine nel dominio spaziale in cui saranno presenti i risultati dell’operazione di filtraggio. Un esempio del concetto appena esposto è presentato negli esempi di Figura 4.42 e 4.43. Fig. 4.42 Esempio di elaborazione nel dominio trasformato eseguita con software EidosLab. A partire da un’immagine radiografica della spalla (convertita in formato bitmap, a evitare artefatti da compressione .jpeg e ridotta a formato 512×512 per poter applicare la FFT) si esegue la Direct Fast Fourier Transform e la si elabora mediante un filtro passa-basso di tipo Butterworth, con parametri r020% e r15. Al risultato viene poi applicata la Inverse Fast Fourier Transform per tornare al dominio spaziale, ottenendo come risultato un’immagine simile a un’immagine sottoposta a smoothing, ulteriore evidenza che le alte frequenze si trovano verso la periferia dello spazio trasformato

134

M. Coriasco et al.

Fig. 4.43 Esempio di elaborazione nel dominio trasformato eseguita con software EidosLab. A partire da un’immagine radiografica del bacino (convertita in formato bitmap, a evitare artefatti da compressione .jpeg e ridotta a formato 512×512 per poter applicare la FFT) si esegue la Direct Fast Fourier Transform e la si elabora mediante un filtro passa-alto di tipo Butterworth, con parametri r020% e r15. Al risultato è applicata la Inverse Fast Fourier Transform per tornare al dominio spaziale, ottenendo come risultato una immagine contenente scarse informazioni di contrasto, ma con molte informazioni relative ai bordi. Questo fatto prova che le regioni centrali dello spazio trasformato contengono le informazioni a bassa frequenza, relative ai contrasti

La scelta delle funzioni filtro, il significato delle stesse nel dominio spaziale e gli effetti prodotti dalla moltiplicazione di una trasformata per una funzione filtro varieranno in base alle specifiche necessità di elaborazione. Analizzeremo ora un insieme di filtri classici applicabili alle trasformate di Fourier nella loro versione passa-basso; la versione passa-alto sarà matematicamente duale, per cui dove il passa-basso vale 1, il passa-alto varrà 0 e viceversa, considerando invertiti anche i valori intermedi delle curve. 4.6.6 Filtro ideale

Il filtro ideale (Fig. 4.44) è definito dalla seguente funzione in cui u e v rappresentano le frequenze lungo la direzione orizzontale e verticale, mentre r0 è la frequenza di taglio: ⎧⎪1 se r ( u, v ) ≤ r0 H ( u, v ) = ⎨ ⎪⎩0 se r ( u, v ) > r0 dove r ( u, v ) = u 2 + v 2 .

Il termine r(u,v) rappresenta la distanza dall’origine di un punto nel dominio delle frequenze. In corrispondenza della frequenza di taglio, il filtro ideale introduce una discontinuità, nella quale il limite sinistro vale 1 e il limite destro vale 0. Questo cambio repentino di valori si ripercuote sull’immagine filtrata introducendo delle irregolarità in corrispondenza dei bordi degli oggetti ripresi dall’immagine.

4 Elaborazione di immagini

135 Fig. 4.44 Rappresentazione grafica del filtro ideale

4.6.7 Filtro Butterworth

Per ovviare ai problemi indotti dal filtro ideale, si utilizzano spesso dei filtri di struttura più complessa che introducono un taglio meno netto delle frequenze per mezzo dell’applicazione di un’attenuazione progressiva. Uno di questi filtri è denominato Butterworth (Fig. 4.45) e, nella sua forma generale, è definito dalla seguente relazione: H ( u, v ) =

1 ⎛ r ( u, v ) ⎞ 1 1+ ⎜ ⎟ ⎝ r0 ⎠ r

dove r ( u, v ) = u 2 + v 2 .

I parametri r0 e r1 permettono di caratterizzare l’andamento della curva del filtro. In particolare il parametro r0 determina la posizione radiale del punto di flesso della curva e svolge la medesima funzione deputata al raggio nel filtro ideale, cioè quella di indicare l’ampiezza di banda delle basse frequenze che si intende conservare. Dal punto di vista del filtraggio, anche se impropriamente, il parametro r0 può essere assimilato a una frequenza di taglio; infatti il cambiamento di concavità della curva determina il punto in cui il filtro applica una maggiore attenuazione delle alte frequenze (schiacciamento). Il parametro r1 determina invece il grado di schiacciamento intervenendo sulla pendenza della curva, per questo il parametro r1 è considerato un parametro di “attenuazione” della curva. Tipicamente r1 è definito come r1  2k con k  0, 1, ecc. Aumentando il parametro r1, il filtro Butterworth tende ad approssimare il filtro passa-basso ideale.

136

M. Coriasco et al.

Fig. 4.45 Rappresentazione grafica del filtro di Butterworth

Dal punto di vista della qualità dell’immagine filtrata, il filtro Butterworth risolve i problemi introdotti dalla discontinuità del filtro ideale, limitando l’effetto di sfocatura e riducendo, al contempo, il contributo delle alte frequenze. È importante rilevare che il filtro Butterworth non esegue un taglio delle alte frequenze ma solo un’attenuazione. Per questo motivo, pur non parlando di frequenza di taglio in senso stretto, si è soliti definire la frequenza di taglio dei filtri ad attenuazione come la frequenza alla quale il valore della funzione H raggiunge una predeterminata frazione del suo valore massimo.

4.6.8 Filtro esponenziale

Il filtro esponenziale (Fig. 4.46), molto simile al filtro Butterworth, si differenzia soprattutto per la rapidità di abbattimento delle alte frequenze. L’espressione analitica del filtro è riportata a seguito: 1

H ( u, v ) = e

⎛ r ( u ,v ) ⎞r1 ⎜⎜ ⎟⎟ ⎝ r0 ⎠

dove r ( u, v ) = u 2 + v 2 .

I parametri r0 e r1 permettono di caratterizzare la forma della curva con modalità equivalenti a quelle espresse per il filtro Butterworth. Come nel caso del filtro Butterworth, la frequenza di taglio è definita come la frequenza alla quale la funzione H è ridotta alla frazione p del suo valore massimo.

4 Elaborazione di immagini

137 Fig. 4.46 Rappresentazione grafica del filtro esponenziale

4.6.9 Filtro trapezoidale

Il filtro trapezoidale (Fig. 4.47) rappresenta una sorta di compromesso tra i filtri Butterworth ed esponenziale e il filtro ideale, sia per il comportamento qualitativo del filtro, sia per la struttura analitica dello stesso. L’espressione analitica del filtro trapezoidale è la seguente: 1 ⎧ r ( u, v ) − r 1 H ( u, v ) = ⎨ ⎪⎩ r0 − r 1

se r ( u, v ) < r0 se r0 ≤ r ( u, v ) ≤ r1 se r ( u, v ) > r1

dove r ( u, v ) = u 2 + v 2 .

Il parametro r0 indica la frequenza di inizio attenuazione mentre il parametro r1 indica la frequenza di inizio taglio. L’intervallo di frequenze tra r0 e r1 è sottoposto a un filtraggio con variazione lineare. Le due frequenze che identificano l’area di attenuazione lineare, consentono un filtraggio dagli effetti meno marcati rispetto al filtro passa-basso ideale, evitando una brusca discontinuità sulle frequenze. Si nota comunque, che in corrispondenza delle frequenze r0 e r1 il cambiamento di pendenza della funzione lineare tende a determinare la comparsa, nel dominio spaziale dell’immagine filtrata, di strutture ad anello. Questo fenomeno è tanto più evidente quanto maggiore è la pendenza della rampa del filtro trapezoidale. In Figura 4.48 è rappresentata una comparazione dei diversi tipi di filtraggio in frequenza.

138 Fig. 4.47 Rappresentazione grafica del filtro trapezoidale

Fig. 4.48 Comparazione dei diversi tipi di filtraggio in frequenza (passa-basso). In ogni immagine è riportata la curva di filtraggio applicata ed i parametri scelti per la generazione del filtro. Notare come le curve, pur avendo andamento simile, portano a un risultato piuttosto diverso. La comparsa più o meno accentuata dei “ring” è legata all’entità dell’abbattimento delle basse frequenze

M. Coriasco et al.

4 Elaborazione di immagini

139

4.7 Ripristino di qualità dell’immagine Le proprietà del dominio trasformato sono tali da mettere in evidenza alcuni difetti in modo molto più marcato dal contesto dell’immagine. Poiché nella sua rappresentazione si evidenzia una specie di mappa delle frequenze, è chiaro che alcuni disturbi, in particolare quelli periodici nei quali sia possibile individuare determinate frequenze fisse, avranno una loro rappresentazione identificabile nella distribuzione delle frequenze. Questo li rende particolarmente individuabili e separabili dal resto, applicando ad esempio alcune immagini di maschera opportunamente predisposte. Negli esempi rappresentati in Figura 4.49 e 4.50 si sono messi in evidenza i tipici spike che si formano nel dominio trasformato quando nell’immagine originale sia presente un rumore di tipo periodico. Fig. 4.49 Esempio di immagine degradata da half-tone pattern

140

M. Coriasco et al.

Fig. 4.50 Immagine degradata da frequenze spaziali spurie sovrapposte all’immagine originale. Il rumore periodico è stato modellizzato e la corrispondente TDF è utilizzata per filtrare l’informazione in frequenza dell'immagine degradata (mediante sottrazione); si ottiene così una maggiore precisione nella rimozione del disturbo rispetto alle semplici maschere empiriche ricavate dall’analisi soggettiva

In un primo caso, l’immagine presenta un disturbo tipico delle immagini provenienti dall’acquisizione di un’immagine stampata su un quotidiano con la tecnica dell’halftoning, nell’altro un generico rumore con caratteristiche di ripetitività. Si può notare in entrambi i casi come si evidenziano bene gli spike responsabili del degrado dell’immagine e come sia, di conseguenza, possibile rimuoverli. È chiaro che il ripristino di qualità (Fig. 4.51 e 4.52) può operare efficacemente quando il degrado è conosciuto oppure correttamente modellizzabile, per cui non si può pensare che il ripristino di qualità sia applicabile a qualsiasi disturbo di qualsiasi forma. Sarà sempre necessario identificare il disturbo e operare sulla base della conoscenza del difetto che ha rovinato l’immagine originale. Si deve tenere presente che l’efficacia di tali metodi di filtrazione è tanto maggiore quanto maggiori sono le informazioni sul disturbo che ha causato il degrado. Se le infor-

4 Elaborazione di immagini

141 Fig. 4.51 Esempio di ripristino di qualità a partire da un’immagine degradata da artefatti da griglia anti-diffusione (effetto Moiré derivante da interazione degli elementi di griglia con gli elementi rivelatori del plate)

mazioni sono poche e il disturbo non è facilmente discriminabile dal contesto, il recupero della qualità dell’immagine è comunque molto difficile o addirittura impossibile.

4.8 I software per l’elaborazione Per realizzare le elaborazioni finora descritte su un normale personal computer in ufficio o a casa propria è necessario disporre di un adeguato software per l’elaborazione di immagini. Tra i software più conosciuti e utilizzati possiamo sicuramente menzionare prodotti commerciali quali Photoshop della Adobe o Paint Shop Pro della Corel, oppure software

142

M. Coriasco et al.

Fig. 4.52 Esempio di image restoration in presenza di degrado indotto dal movimento di cui è stimato il modello di disturbo. In a l’immagine originale degradata, in b l’immagine ripristinata con una prima stima ancora imprecisa del disturbo; c secondo tentativo di ripristino con una seconda stima del disturbo; d immagine finalmente ripristinata con una stima corretta del disturbo

gratuiti (spesso open source) quali ImageJ o Eidoslab. La nostra scelta per la produzione della maggior parte degli esempi e delle immagini è ricaduta su Eidoslab, in quanto realizzato nel contesto della tesi di laurea da uno degli autori di questo lavoro e messo a disposizione in forma gratuita a chi sia interessato all’argomento dell’elaborazione di immagini. Il software è stato sviluppato basandosi su criteri e tecnologie di ultima generazione quali l’object oriented programming in ambiente .NET framework della Microsoft ed è in continua evoluzione e aggiornamento, e chiunque ne abbia volontà e competenza può contribuire aggiungendo ulteriori algoritmi e funzionalità secondo il modello dei plug-in.

4 Elaborazione di immagini

Il software può essere liberamente prelevato dal sito internet http://eidos.di.unito.it e funziona con i sistemi operativi Windows su cui sia installato .NET framework, anch’esso liberamente fruibile dal sito della Microsoft (http://windowsupdate.com). Eidoslab non è un software di fotoritocco, ma un laboratorio didattico e nello stesso tempo professionale per chi voglia avvicinarsi alle tematiche classiche e innovative dell’elaborazione delle immagini. Non troverete, pertanto, molte delle opzioni tipiche dei software come Photoshop relative al disegno a mano libera, ma sarà viceversa possibile agire sulle immagini tramite i parametri conosciuti nella teoria dell’elaborazione delle immagini affrontati in questo testo, senza mascherare gli aspetti matematici che sono alla base delle elaborazioni. Sono presenti le elaborazioni con le trasformate di Fourier (DFT/FFT) e la coseno discreta (DCT), il filtraggio nello spazio delle frequenze, le convoluzioni e molto altro ancora; nel tempo le funzionalità cresceranno ulteriormente ed è possibile crearne in proprio di nuove, magari sulla base di idee proposte dal lettore. Sarà inoltre possibile ripetere gli esempi che qui abbiamo riportato, e sperimentarne di nuovi, in modo da comprendere fattivamente (learning-by-doing) gli effetti indotti dalle elaborazioni sulle immagini.

4.9 Considerazioni finali I dati visivi contenuti in un’immagine digitale vengono percepiti dall’occhio umano e tradotti in informazione sulla base dell’esperienza dell’osservatore; questi può eventualmente vantare conoscenze in un particolare dominio applicativo (per esempio immagini radiologiche, ecografiche). Al fine di rendere maggiormente percepibile e valutabile l’informazione eidetica, si rende sovente opportuno agire sui dati grezzi con vari metodi elaborazione. L’elaborazione può agire su forma e contenuto dei dati. La forma consiste generalmente nella distribuzione bidimensionale di intensità luminosa (dominio spaziale) oppure di frequenze (dominio di Fourier). Se la forma rimane inalterata, si tratta sempre di una distribuzione spaziale di intensità luminosa. Nel primo caso si parla di elaborazioni che enfatizzano e rendono più facile l’apprezzamento del contenuto: in questo ambito abbiamo analizzato le LUT, i filtri convolutivi per la rivelazione e l’evidenziazione dei bordi, oppure per la riduzione del rumore e lo smoothing. Abbiamo poi affrontato il caso particolare del filtro mediano e dell’unsharp masking che, rispettivamente, operano per ridurre il rumore e per evidenziare i bordi e le discontinuità presenti nell’immagine. Sempre tra le elaborazioni fondamentali abbiamo analizzato il miglioramento del contrasto tramite l’equalizzazione dell’istogramma, per poi passare alle elaborazioni nel dominio delle frequenze componenti l’immagine. Utilizzando la trasformata di Fourier siamo in grado di operare direttamente sulle frequenze che compongono l’immagine, ampliando considerevolmente le possibilità di elaborazione digitale dell’immagine; applicando il filtraggio nel dominio trasformato potremo creare filtri passa-alto o passa-basso per isolare, attenuare o enfatizzare determinate componenti in frequenza dell’immagine. Sempre con tecniche nel dominio

143

144

M. Coriasco et al.

trasformato è possibile determinare un approccio al ripristino di qualità dell’immagine, avendo identificato correttamente la natura del rumore e operando per la sua rimozione. Infine, nell’ultimo paragrafo abbiamo presentato brevemente il software sviluppato dal gruppo di ricerca in elaborazione di immagini EidosLab, strumento utile per affinare le proprie conoscenze nell’ambito dell’eidomatica.

Letture consigliate Ballard DH, Brown CM (1982) Computer vision. Prentice Hall, Englewood Cliffs Brigham EO (1988) The fast Fourier transform and its applications. Prentice Hall, Upper Saddle River Castleman KR (1996) Digital image processing, 2 edn. Prentice Hall, Upper Saddle River Forsyth DF, Ponce J (2002) Computer vision. A modern approach. Prentice Hall, Upper Saddle River Gonzalez RC, Woods RE (2008) Digital image processing, 3 edn. Pearson International Edition, New Jersey Haralick RM, Shapiro LG (1992) Computer and robot vision, Vol. 1–2. Addison-Wesley, Reading Plataniotis KN, Venetsanopulos AN (2000) Color image processing and applications. SpringerVerlag, New York Pratt WK (1978) Digital image processing. John Wiley & Sons, California Rosenfeld A, Kak AC (1982) Digital image processing, Vol. 1–2, 2 edn. Academic Press, New York Russ JC (1999) The image processing handbook, 3 edn. CRC Press, Boca Raton Schalkoff RJ (1989) Digital image processing and computer vision. John Wiley & Sons, New York Serra J (1983) Image analysis and mathematical morphology. Academic Press, New York Shapiro LG, Stockman GC (2001) Computer Vision. Prentice Hall, Upper Saddle River Sid-Ahmed MA (1995) Image processing: theory, algorithms, and architectures. McGraw-Hill, New York Snyder WE, Qi H (2004) Machine vision. Cambridge University Press, New York Theoridis S, Kostantinos K (2006) Pattern recognition, 3 edn. Academic Press, New York

ESERCIZI

Esercizi 1) Una LUT esponenziale tende a: a) scurire un’immagine b) binarizzare un’immagine c) rischiarare un’immagine d) rendere equiprobabili i livelli di luminanza 2) La tecnica degli pseudocolori permette di: a) ottenere dei colori nel modello CMYK b) diminuire l’intensità cromatica c) trasformare i valori di grigio in valori cromatici d) trasformare un insieme di colori in un altro 3) Il filtro mediano: a) è selettivo b) si può applicare una sola volta c) si può applicare più volte consecutivamente fino a che si determina un miglioramento dell’immagine d) è sensibile al contesto 4) Il filtro di Sobel permette di: a) accelerare il processo di binarizzazione b) evidenziare i contorni c) ridurre il contrasto d) eliminare i picchi dell’istogramma 5) Con l’estensione del contrasto i livelli di grigio sono modificati: a) in ampiezza b) in frequenza c) nel range di variabilità d) fanno aumentare l’informazione 6) Il filtraggio passa-basso presenta come effetto collaterale: a) l’eliminazione dei picchi del segnale b) uno sfuocamento dell’immagine c) la riduzione del numero di pixel globali d) l’esaltazione del rumore 7) Una LUT a scala permette di: a) comprimere un’immagine b) digitalizzare un’immagine c) convertire il formato di un’immagine d) restituire valori scalari

145

146

ESERCIZI

8) Dato lo stralcio di un’immagine f(x, y) di cui in figura, calcolare l’immagine g(x, y) ottenuta sostituendo solo i pixel i cui valori siano inferiori alla media locale calcolata su una finestra 3 3, con il valore medio calcolato 10 12 15 18 20

12 14 30 25 14

15 20 25 27 30

18 16 18 20 30

20 30 30 28 20

9) Applicare il filtro di Sobel per linee orizzontali al seguente stralcio di immagine, riportando i valori numerici ottenuti 1 1 1 10 10 10

1 1 1 10 10 10

1 1 10 10 10 10

10) Descrivere il comportamento della seguente LUT

11) Dato lo stralcio dell’immagine f(x, y) di figura, calcolare l’immagine g(x, y) ottenuta applicando un filtro a pesi unitari di dimensioni 3 3. 10 10 10

10 4 10

8 10 10

10 50 8

12 12 10

ESERCIZI

147

12) Dato il seguente stralcio di immagine, applicare il filtro mediano 10 10 10

12 4 10

8 30 10

10 10 8

12 10 12

13) Un’immagine è detta a basso contrasto quando: a) si ottiene miscelando pochi colori b) ha i livelli di luminanza all’interno di un range ristretto c) ha i livelli di luminanza al di sotto di una soglia minima d) evidenzia solo il nero 14) Il filtro di Prewitt è uno dei metodi di: a) estrazione dei contorni b) binarizzazione c) riduzione del contrasto d) eliminazione dei picchi dell’istogramma 15) Una LUT logaritmica tende a: a) scurire un’immagine b) binarizzare un’immagine c) rischiarare un’immagine d) rendere piatto l’istogramma 16) La convoluzione consiste in: a) matrici a pesi unitari b) somme di prodotti c) matrici con distribuzione gaussiana d) valori costanti 17) Una LUT sia descritta dal seguente diagramma. Descriverne il comportamento:

148

ESERCIZI

18) Le frequenze spaziali elevate coincidono generalmente con: a) variazioni lente del segnale b) i contorni di un oggetto c) il background d) la massima frequenza 19) Gli algoritmi di estrazione dei contorni si basano principalmente: a) sulla suddivisione dell’immagine in aree di interesse b) sulla ricerca delle brusche variazioni di luminosità c) sulla correlazione fra pixel a distanza pari a un quarto della dimensione totale dell’immagine d) sulla possibile presenza di rumore di ridotte dimensioni 20) Dato lo stralcio dell’immagine f (x, y) di figura, calcolare l’immagine g(x, y) ottenuta applicando un filtro di dimensioni 3 3 con pesi della seguente maschera 1

2

1

2

4

2

1

2

1

10

10

8

10

12

10

8

10

10

12

10

10

10

8

10

21) Un filtraggio di tipo convolutivo è ottenuto con: a) una matrice di punti neri che oscurano i pixel di un’immagine b) una matrice con pesi opportuni c) una modificazione del formato di scala d) la tecnica degli pseudocolori 22) Un filtro convolutivo di dimensioni 5 5 passa-basso ha i pesi: a) sempre unitari b) sempre positivi o nulli c) tutti nulli d) tutti uguali al valore della dimensione della maschera 23) Detto r il livello di luminanza dell’immagine di partenza e s quello dell’immagine riscalata (con r e s che variano da 0 a L), disegnare una LUT che: a) imponga i livelli di grigio al valore L/4 nell’intervallo 0-L/4 b) espanda fra i valori 3L/4 a L nell’intervallo L/4-L/2 c) imponga il valore L/4 nell’intervallo L/2-3L/4 d) forzi al valore massimo L nell’intervallo 3L/4-L

ESERCIZI

24) Detto r il livello di luminanza dell’immagine di partenza e s quello dell’immagine riscalata (con r e s che variano da 0 a L), disegnare una LUT che: a) espanda fra i valori 0 e L/3 b) imponga il valore L nell’intervallo L/3 e 2L/3 c) comprima i livelli di grigio fra 2L/3 e L 25) Considerando la porzione di matrice digitale di un’immagine rappresentata in figura e i filtri di convoluzione A e B indicati, calcolare i valori dei due pixel evidenziati (di valori 150 e 34) dopo l’applicazione dei filtri.

26) Calcolare i valori assunti dai due pixel evidenziati dopo l’applicazione di un filtro mediano. 27) Data l’immagine 1, indicare quali tra le immagini 2, 3 e 4 sono state ottenute tramite i filtri A e B dell’esercizio precedente e spiegare perché

149

150

ESERCIZI

28) Data l’immagine 1a e la sua trasformata di Fourier 2a, indicare i tipi di filtri rappresentati nelle figure 2b – 2e e associarle alle rispettive antitrasformate delle figure 1b – 1e 1

2

29) Data l’immagine a e il suo istogramma, associare correttamente le LUT rappresentate nelle figure b, c, d alle immagini sottostanti

30) L’effetto “blurring” è determinato da: a) un’applicazione di filtri passa-alto di tipo convolutivo b) un’applicazione di filtri passa-basso all’immagine originale c) la differenza tra due immagini d) un riscalamento dei livelli di grigio in una finestra dinamica

ESERCIZI

31) Le elaborazioni delle immagini nel dominio trasformato sono tecniche che fanno uso di: a) scomposizione dell’immagine nelle frequenze che la costituiscono b) strumenti per la rotazione delle immagini c) strumenti per la traslazione delle immagini d) strumenti che modificano i colori secondo uno schema psico-visuale predefinito 32) L’equalizzazione dell’istogramma dei livelli di grigio di un’immagine consente: a) di vedere un maggior numero di colori b) di fare in modo che i livelli di grigio presenti nell’immagine tendano a fornire lo stesso contributo c) di vedere un’immagine più chiara d) di vedere un’immagine più scura 33) L’applicazione all’immagine di Look-Up Table (LUT) è una tecnica che a) riduce il numero di colori visibili b) consente di visualizzare immagini multispettrali c) aumenta il numero di livelli di grigio presenti nell’immagine d) riduce la quantità di rumore presente nell’immagine 34) L’applicazione all’immagine di una LUT tipo “gamma”: a) equivale ad applicare una LUT logaritmica se γ < 1 b) equivale ad applicare una LUT logaritmica se γ > 1 c) equivale ad applicare una LUT esponenziale se γ < 1 d) equivale ad applicare una LUT esponenziale se γ  1 35) L’applicazione all’immagine di LUT esponenziale: a) rende la modifica del contrasto più efficace per i livelli di grigio più scuri b) rende la modifica del contrasto più efficace per i livelli di grigio più chiari c) aumenta il numero di livelli di grigio presenti nell’immagine d) diminuisce il numero di livelli di grigio presenti nell’immagine 36) L’applicazione all’immagine di LUT logaritmica: a) rende la modifica del contrasto più efficace per i livelli di grigio più scuri b) rende la modifica del contrasto più efficace per i livelli di grigio più chiari c) aumenta il numero di livelli di grigio presenti nell’immagine d) diminuisce il numero di livelli di grigio presenti nell’immagine 37) Perché nei sistemi radiografici digitali si utilizza spesso una LUT di tipo sigmoide? a) perché riduce il numero di grigi aumentando il contrasto b) perché consente di visualizzare immagini multispettrali c) perché il suo andamento è simile a quello della curva sensitometrica tipica dei sistemi analogici d) perché riduce la quantità di rumore presente nell’immagine

151

152

ESERCIZI

38) Che tipo di Look-UpTable (LUT) si utilizza per variare il contrasto in un’immagine TC? a) LUT logaritmica di tipo sharpening b) LUT lineare di tipo windowing c) LUT lineare di tipo smoothing d) LUT con andamento sigmoide 39) Cosa si intende per Digital Image Processing? a) l’insieme delle tecniche di elaborazione utilizzate per modificare la dimensione di immagini digitali in fasi successive all’acquisizione b) l’individuazione nell’immagine dei pixel responsabili di false rappresentazioni di colore c) l’insieme delle tecniche di elaborazione utilizzate per modificare il contenuto di immagini digitali in fasi successive all’acquisizione d) ridurre la quantità di rumore presente nell’immagine digitale

Elaborazioni intrinseche alle metodiche

5

Indice dei contenuti 5.1 5.2 5.3 5.4 5.5

Introduzione Radiologia digitale proiettiva Mammografia Angioradiologia Tomografia computerizzata Esercizi

5.1 Introduzione La disponibilità di grandi potenze di calcolo con costi contenuti, unitamente alla continua ricerca di miglioramento della qualità d’immagine in ambito medicale diagnostico, ha reso possibile l’introduzione e l’impiego sempre maggiore di elementi di elaborazione d’immagine intrinseci al processo di acquisizione e formazione. L’immagine risultante da un’indagine radiologica ha caratteristiche di qualità e di contenuto informativo dipendenti dai parametri tecnici di acquisizione e dalle prestazioni dei rivelatori utilizzati. Hanno però un ruolo sempre più importante una serie di alterazioni e trattamento dei segnali misurati automatizzati, che solitamente intervengono senza il diretto controllo dell’operatore, se si eccettua la fase di calibrazione durante l’installazione o la manutenzione dell’apparecchiatura. Gli strumenti di elaborazione prima trattati verranno in parte ripresi fornendo esempi di elementi peculiari di alcune delle metodiche impiegate in diagnostica per immagini, allo scopo di aumentare la consapevolezza su questa parte di elaborazioni chiamate “intrinseche” per la loro inscindibilità dagli altri passi di realizzazione delle immagini visti nel capitolo 2. L’immagine digitale in diagnostica per immagini. Mario Coriasco, Osvaldo Rampado, Nello Balossino, Sergio Rabellino DOI: 10.1007/978-88-470-5364-9_5 © Springer-Verlag Italia 2013

153

154

M. Coriasco et al.

5.2 Radiologia digitale proiettiva In radiologia digitale esiste una vasta tipologia di elaborazioni intrinseche. Alcune sono in grado di ottimizzare la risposta dei rivelatori impiegati e ne correggono eventuali difetti: comune è l’impiego di sistemi per ovviare a difetti causati da un singolo elemento di rivelazione, detti bad pixel. In tale tipo di difetto, la risposta di un singolo elemento di rivelazione è assente o molto diversa dalla risposta degli elementi circostanti: essa può essere corretta sostituendone il valore errato con quello mediano degli elementi di rivelazione adiacenti (Fig. 5.1). Sono poi applicabili altre correzioni per migliorare l’uniformità di risposta e compensare differenze di guadagno elettronico degli elementi della matrice, misurando una mappa di fattori di correzione in fase di calibrazione e utilizzandola per ricalcolare i singoli valori in fase di acquisizione. Altri tipi di elaborazioni intrinseche sono specifici per le diverse proiezioni: in una radiografia proiettiva del torace, ad esempio, i rivelatori digitali registrano in prima battuta una mappa della fluenza del fascio radiogeno emergente dopo l’interazione con i tessuti del paziente, e realizzano la conversione dai valori d’intensità di radiazione misurati a valori in scala di grigio, con dipendenza lineare o logaritmica. Un’immagine di questo tipo, definibile immagine grezza, è visibile in Figura 5.2: si osservi come essa sia caratterizzata da scarso contrasto, e si debba necessariamente ricorrere a un processing per migliorare la visione delle componenti di interesse.

Fig. 5.1 Rappresentazione del fenomeno denominato bad pixel. A sinistra, sono stati artificialmente simulati “granelli di sale” che alterano la qualità dell’immagine a causa dell’errata risposta degli elementi rivelatori associati ai rispettivi pixel. Al centro, particolare ingrandito, sottoposto a elaborazione con filtro mediano, e risultato finale visibile a destra

5 Elaborazioni intrinseche alle metodiche

Fig. 5.2 A sinistra è possibile osservare un radiogramma grezzo privo di elaborazione. Sotto, a sinistra, il relativo istogramma con la distinzione delle diverse componenti che permette di effettuare una segmentazione, visibile

Analizzando i processi di elaborazione intrinseci descritti nei manuali delle apparecchiature, si individuano le seguenti principali categorie: • enfatizzazione del contrasto tramite l’applicazione di una LUT, tipicamente di tipo sigmoide, con parametri caratteristici dipendenti dalla forma dell’istogramma e da impostazioni preferenziali definite dall’utente; • miglioramento del rapporto contrasto rumore e della definizione dei bordi tramite elaborazioni nel dominio spaziale, come ad esempio l’unsharp masking; • elaborazioni nel dominio delle frequenze, con separazione in bande di frequenza dell’immagine trasformata ed equalizzazione studiata per ridurre il rumore e aumentare la nitidezza dei bordi. Per osservare da vicino questi tre processi consideriamo un caso reale, analizzando l’istogramma del radiogramma non elaborato di Figura 5.2. L’immagine è stata ottenuta esponendo un fantoccio antropomorfo. Nell’istogramma sono evidenti alcuni picchi caratteristici e regioni distinte, associati rispettivamente alle regioni di aria circostanti ai tessuti, alle zone periferiche con spessore e attenuazione crescente, il picco relativo alla regione del parenchima polmonare, la regione mediastinica e sottodiaframmatica e il picco di intensità più alto associato alla parte collimata. Ovviamente, le parti di segnale associate al picco più basso e a quello più alto (aria e collimazione) sono di scarso interesse e pertanto il sistema selezionerà in prima istanza la parte centrale dell’istogramma per l’applicazione della LUT.

155

156

M. Coriasco et al.

Fig. 5.3 A partire dall’istogramma e dalla segmentazione delle componenti relative si rileva il risultato ottenuto con una LUT tesa a evidenziare il parenchima polmonare (a sinistra) e una rivolta invece alle componenti ossee e mediastiniche (a destra)

Tuttavia, ci possono essere numerose altre varianti definite dall’utente in collaborazione con il tecnico dell’apparecchiatura in fase d’installazione, per esempio con protocolli finalizzati allo studio del parenchima polmonare o dei tessuti mediastinici e spostamento di conseguenza del centro della finestra. Anche la latitudine stessa o la forma della curva in prossimità delle regioni di saturazione (piede e spalla) possono normalmente essere modulate in accordo alle preferenze individuali. È di particolare importanza la corretta predisposizione delle curve di elaborazione in fase di acquisizione dell’apparecchiatura perché, nella pratica quotidiana, avere delle buone regolazioni automatiche di luminosità e contrasto può consentire un rilevante risparmio di tempo. In questo modo, attraverso la registrazione corretta dell’esame, sarà possibile ottenere immediatamente una delle immagini risultanti nella Figura 5.3. Veniamo alla seconda categoria di processing intrinseco generalmente offerto nella radiografia digitale proiettiva. L’elaborazione di unsharp masking è già stata descritta nel capitolo 4 e non verrà qui ripresa nel dettaglio. Si vuole solo osservare in questo ambito come, anche in questo caso, l’azione nel dettaglio di questo processo può essere spesso parametrizzata, definendo per esempio le dimensioni dei kernel del filtro convolutivo di smoothing in pixel o l’intensità dei coefficienti di guadagno dell’immagine associata ai bordi come mostrato in Figura 5.4. Anche in questo caso, si osserva l’importanza della definizione dei protocolli di processing e della consapevolezza del significato dei parametri contenuti. Sono riportati esempi in letteratura di artefatti associati proprio a livelli impropri di elaborazione dell’immagine. Infine, la terza tipologia di elaborazioni intrinseche considerata è l’equalizzazione nel dominio delle frequenze, processo che richiede sicuramente una potenza di calcolo superiore rispetto alle altre metodiche appena descritte e che, fino all’inizio di questo secolo, era da considerare difficilmente compatibile con i tempi di lavoro comuni nella pratica clinica. La Figura 5.5 schematizza il processo nel quale l’immagine viene prima trasformata nel dominio delle frequenze e poi suddivisa in componenti, alle quali sono associate diverse componenti informative. L’elaborazione prevede un’equalizzazione di queste diverse componenti, in modo da ottenere un risultato in cui sono enfatizzate le frequenze spaziali di maggior interesse con fattori di guadagno opportuni e ridimensionate le frequenze spaziali tipicamente associate al rumore.

5 Elaborazioni intrinseche alle metodiche

157 Fig. 5.4 Esempi di possibili parametrizzazioni di processi USM. a Immagine grezza; b kernel raggio 1 e guadagno 0,5; c kernel raggio 1 e guadagno 0,9; d kernel raggio 5 e guadagno 0,9

158

M. Coriasco et al.

Fig. 5.5 Processo di elaborazione nel dominio delle frequenze con equalizzazione delle componenti ottenute con filtri passa-basso, banda e alto in modo da ottimizzare la qualità globale dell’immagine

5.3 Mammografia L’esame radiologico della mammella presenta una serie di caratteristiche specifiche, relativamente alla tipologia di apparecchiature utilizzate e alla tecnica di esposizione con parametri geometrici e di energia dei fasci radianti peculiari. L’introduzione dei rivelatori digitali in quest’ambito è avvenuta con una grande cautela ed è stata condizionata dall’esigenza di una risoluzione più elevata rispetto alla radiologia tradizionale e dalla garanzia di rapporti contrasto rumore adeguati per i fasci radiogeni utilizzati. Oltre alle caratteristiche dei rivelatori, il processing intrinseco gioca un ruolo fondamentale per il raggiungimento della massima informazione diagnostica. In particolare, uno dei suoi obiettivi è quello di limitare l’effetto del gradiente di spessore tra la parte di organo più vicina alla parete toracica e la parte più distale che avrà uno spessore e attenuazione decrescenti. In Figura 5.6 è mostrato un esempio di immagine mammografica digitale grezza nel pannello a, con due diversi windowing applicati uno per visualizzare meglio le regioni più periferiche di minor spessore (b) e uno per ottimizzare il contrasto della parte più prossima alla parete toracica (c).

5 Elaborazioni intrinseche alle metodiche

Fig. 5.6 Immagine mammografica digitale e esempi di elaborazioni. a Immagine grezza a basso contrasto intrinseco; b applicazione di LUT adatta per le regioni più superficiali, ma con contrasto ridotto sul tessuto interno; c applicazione di LUT adatta per le regioni più interne, ma con perdita di visualizzazione delle regioni più superficiali; d immagine con algoritmi di elaborazione basati su equalizzazione dell’istogramma; e immagine ottenuta con tecnica di equalizzazione periferica

Sono stati proposti diversi algoritmi, alcuni dei quali ricalcano in parte quelli visti nel paragrafo precedente per la radiologia tradizionale. Ad esempio, anche in mammografia è possibile trovare l’applicazione di LUT dopo segmentazione automatica dell’istogramma dei livelli di grigio, ma relativamente ai tessuti d’interesse in questo ambito, che sono il tessuto adiposo non compresso, il tessuto adiposo compresso, il tessuto ghiandolare e i muscoli pettorali. Ci sono poi algoritmi che sfruttano l’unsharp masking, l’equalizzazione dell’istogramma CLAHE o l’analisi nello spazio delle frequenze. Esistono poi tecniche di equalizzazione periferica, il cui processo può essere descritto nei seguenti passi: • applicazione di un filtro passa-basso, per esempio di tipo Butterworth, con frequenza di taglio di 0,05 cicli per mm; • dall’immagine così ottenuta si ricava una mappa di attenuazione relativa allo spessore con coefficienti compresi tra 0 e 1; • l’immagine originale viene rapportata alla mappa di attenuazione in modo da livellare il gradiente di luminanza legato allo spessore e permettere una rappresentazione uniforme della struttura ghiandolare. Un esempio di questo tipo di elaborazione è mostrato in Figura 5.6e.

5.4 Angioradiologia Anche per quanto riguarda le immagini fluoroscopiche e angiografiche, la rivoluzione digitale ha creato una serie di possibilità di miglioramento della qualità diagnostica impossibili con le tecniche analogiche. Con i tempi di calcolo attuali è oggi possibile ottenere immagini intrinsecamente elaborate in tempo reale, anche se acquisite a frequenze molto elevate (anche decine di immagini al secondo, con unità di misura in frames per second, abbreviato in fps), come avviene comunemente con la fluoroscopia pulsata o con le sequenze di fluorografia in ambito di emodinamica.

159

160

M. Coriasco et al.

Fig. 5.7 Quantità di dati richiesta e data rate necessari per un flat panel di varie dimensioni a un frame rate di 30 immagini al secondo. Ogni elemento di rivelazione occupa 2 byte e ha dimensione di 200 micrometri. Le cifre relative al numero di rivelatori/ pixel sono espresse in milioni

Fig. 5.8 Esempio di rebinning: l’ingrandimento della regione d’interesse estratta dall’angiografia di sinistra è mostrato con un pixel per rivelatore e successivamente con un pixel ogni quattro rivelatori

Le elaborazioni intrinseche presenti rientrano nelle categorie già esplorate per la radiologia convenzionale, come ad esempio filtraggi spaziali con unsharp masking o nel dominio trasformato. Una parte importante di elaborazione può inoltre essere attuata già a livello elettronico sui singoli dati acquisiti, come ad esempio è comune l’impiego di diverse discretizzazioni spaziali in base al campo di vista necessario e della frequenza di acquisizione scelta. Quando siano necessarie frequenze di acquisizione elevate, a parità di area rappresentata (Field of View, FOV), oltre un certo limite le capacità di risposta dell’hardware possono non essere sufficienti a elaborare in tempo reale la quantità di dati necessaria: un FOV quadrato di 40 cm, in base alle dimensioni degli elementi rivelatori può arrivare a produrre un’immagine di 4 milioni di pixel, e supponendo una profondità di colore di due byte per pixel, tale immagine occupa 8 MB. Con tali valori, l’acquisizione di immagini a 30 fps, il flusso di dati prodotto determina un flusso dati di 240 MB/s. Quantità di dati così elevate non sono manipolabili in tempo reale dalle attuali apparecchiature (Fig. 5.7).

5 Elaborazioni intrinseche alle metodiche

161 Fig. 5.9 Esempi di scelta di diversi campi di vista

Utilizzando la tecnica di rebinning è possibile ridurre l’entità del flusso di dati mantenendo i parametri impostati in termini di frequenza di acquisizione e di FOV, a scapito però della risoluzione spaziale. Una matrice fisica di 2048 2048 rivelatori può essere utilizzata facendo confluire in un unico pixel l’informazione proveniente da piccole sottomatrici quadrate di 2 2 rivelatori, ridefinendo quindi la risoluzione nativa di matrice quadrata di lato 2048 pixel in una matrice quadrata di lato 1024 pixel (Fig. 5.8). In tal modo, si riduce a un quarto del valore iniziale la quantità di dati da elaborare in tempo reale, aumenta il rapporto segnale rumore ed è possibile l’acquisizione nei tempi previsti. La perdita di risoluzione conseguente al rebinning è accettabile per i campi di vista più estesi, mentre per quelli minori nei quali occorre preservare la visibilità delle strutture più piccole si utilizzeranno i rivelatori fisici di dimensioni minime (Fig. 5.9). Una parte peculiare di elaborazioni intrinseche in questo ambito è relativa al filtraggio temporale del segnale e alle tecniche di riduzione del degrado dell’immagine dovuto al movimento delle strutture rappresentate. Questi metodi procedono attraverso l’identificazione e riconoscimento di una medesima struttura all’interno di un’immagine e la definizione di un’ipotesi di come essa si sia mossa all’interno del campo di vista sfruttando le immagini precedenti e le successive. Per fare questo utilizza un approccio gerarchico, ricampionando l’immagine con una discretizzazione spaziale di vari livelli e, per ciascuno di essi, ricercando gli spostamenti effettuati, sostanzialmente da un livello macro a uno micro. Infine, l’immagine viene rigenerata con le sue diverse componenti riallineate, come mostrato in Figura 5.10. Inoltre, molti algoritmi di compensazione del movimento, specie in applicazioni angiografiche, sfruttano subalgoritmi di riconoscimento bordi come quelli descritti nel capitolo precedente. Per esempio, in interventi di emodinamica è possibile rendere disponibile in real-time la visualizzazione del solo stent coronarico.

162

M. Coriasco et al.

Fig. 5.10 Esempio di correzione del movimento in fluroscopia; a sinistra l’immagine da correggere, a destra l’immagine corretta. Al centro è mostrata una schematizzazione del processo di correzione con approccio gerarchico

5.5 Tomografia computerizzata Nell’ambito della tomografia computerizzata (TC) sono disponibili molti strumenti di post processing finalizzati prevalentemente alle ricostruzioni multiplanari su piani coronali e sagittali, o ricostruzioni Maximum Intensity Projection (MIP) o di surface-rendering e volume-rendering. Per quanto riguarda la qualità d’immagine in termini di risoluzione spaziale e rapporto contrasto rumore, il ruolo fondamentale è giocato dai parametri tecnici di acquisizione scelti e dagli algoritmi di ricostruzione utilizzati. In particolare, nella ricostruzione tramite retroproiezione filtrata, l’operatore ha la possibilità di scegliere il filtro di convoluzione più adatto all’indagine diagnostica in corso, favorendo quindi la risoluzione spaziale o il basso contrasto in rapporto al rumore. Questi filtri di convoluzione agiscono alterando i dati misurati dai rivelatori delle apparecchiature come mostrato in Figura 5.11. Nel primo caso viene utilizzato un kernel w(x) finalizzato a evidenziare i dettagli dell’immagine che, applicato al profilo di attenuazione f(x), determina anche un significativo aumento del rumore evidenziato nel risulFig. 5.11 Esempi di prodotti di convoluzione tra una funzione kernel (w(x) o k(x)) e una funzione f(x). Si osservi nella funzione risultante come le transizioni tra livelli risultino più “lente” nel primo caso (effetto smoothing) e molto enfatizzate nel secondo caso, con un aumento del rumore (effetto sharpening)

5 Elaborazioni intrinseche alle metodiche

163 Fig. 5.12 Immagini TC ricostruite con diversi filtri convolutivi. a Sezione addome ottenuta con filtro standard e b con filtro sharp; c pallino metallico ricostruito con filtro standard e d con filtro sharp

tato del prodotto di convoluzione w(x)*f(x). Nel secondo caso viene utilizzato un kernel k(x) finalizzato alla riduzione del rumore. In Figura 5.12 sono mostrati esempi di immagini ottenute a partire dalla stessa acquisizione con l’utilizzo di filtri di convoluzione diversi. In particolare, nelle Figure 5.12c e 5.12d viene mostrata l’immagine di un pallino metallico di diametro 0,25 mm ottenuta con un filtro standard (del tipo k(x)) e un filtro sharp (del tipo w(x)). Si può notare come, a parità di matrice (512 512) e di dimensioni del pixel (0,5 mm), si ottenga una dimensione diversa dell’oggetto nell’immagine, con un diametro misurato di 1,3 mm per il filtro standard e di 0,9 mm per il filtro sharp. Nel caso del filtro sharp in Figura 5.12d è inoltre evidente l’incremento di rumore. Le case costruttrici di apparecchiature per tomografia computerizzata adottano per i filtri convolutivi soluzioni tecnologiche proprietarie con diversa nomenclatura, in alcuni casi con nomi intuitivi come bone, standard, edge, in altri con sigle tipo B47, U23, ecc. Non sempre è dunque agevole orientarsi nella scelta del filtro più appropriato per le diverse applicazioni cliniche, in particolare se di un filtro devono essere replicati gli effetti su apparecchiature di diversi produttori. A questo scopo, per caratterizzare un filtro convolutivo può essere utile analizzare lo spettro del rumore (vedi capitolo 3) risultante dal suo utilizzo: filtri con analogo spettro di rumore permetteranno di ottenere immagini con caratteristiche analoghe. In alternativa al metodo di ricostruzione di retroproiezione filtrata sulle apparecchiature di ultima generazione, è possibile utilizzare metodi iterativi. Lo schema dell’approccio utilizzato da questi metodi è mostrato in Figura 5.13. Si parte da un’immagine iniziale

164

M. Coriasco et al.

Fig. 5.13 Schema di funzionamento di un algoritmo iterativo nella TC

(in genere quella ottenuta con retroproiezione filtrata) e dai profili di attenuazione misurati dai rivelatori dell’apparecchiatura. A partire dall’immagine iniziale, vengono calcolati dei profili di attenuazione “virtuali” simulando il processo fisico con il quale si ottengono i dati durante l’acquisizione. I profili reali acquisiti e quelli calcolati vengono confrontati e, sulla base delle differenze ottenute, verranno adottati dei fattori correttivi per minimizzarle con un processo iterativo. Dopo un certo numero di iterazioni o quando le differenze risultano inferiori a una soglia predefinita si otterrà l’immagine finale. Attualmente, esistono diversi algoritmi iterativi, alcuni basati esclusivamente su processi matematici di correzione e altri che simulano in modo più dettagliato tutti i fenomeni fisici coinvolti nella produzione delle immagini, considerando anche il rumore quantico e il rumore elettronico dei rivelatori. Le immagini ottenute con questi algoritmi presentano una risoluzione spaziale invariata o, in alcuni casi, migliore rispetto alla retroproiezione filtrata, e un rumore decisamente inferiore, con uno spettro spostato verso le basse frequenze. Si è osservata in molti casi una lieve alterazione dei bordi, in particolare delle strutture a basso contrasto e, per questo motivo, è possibile modulare l’effetto dell’algoritmo iterativo nell’immagine finale in rapporto all’immagine tradiziona-

5 Elaborazioni intrinseche alle metodiche

Fig. 5.14 Immagini ottenute con diverse percentuali di presenza di algoritmo iterativo 40% (a), 70% (b), e 100% (c)

le con retroproiezione filtrata scegliendo, in alcuni casi, la percentuale delle due immagini o, in altri, il livello di intensità dell’approccio iterativo. In Figura 5.14 è mostrato un esempio di immagine ricostruita con diversi livelli di iterativo dal 40 al 100%. Si può notare la netta diminuzione del rumore nel caso di iterativo al 100% e la differenza di rappresentazione delle strutture a basso contrasto.

Letture consigliate Associazione Italiana Fisici in Medicina (AIFM) (2009) Apparecchi di radiologia digitale AMFPI: Linee guida per i controlli di qualità. Report n. 6, allegato al Suppl. al n. 1-2009. Fisica in medicina, Genova Beister MM, Kolditz DD, Kalender WA (2012) Iterative reconstruction methods in X-ray CT. Phys Med 28:94–108 Krupinski EA, Williams MB, Andriole K et al (2007) Digital radiography image quality: image processing and display. J Am Coll Radiol 4:389–400 Nickoloff EL (2011) AAPM/RSNA physics tutorial for residents: physics of flat-panel fluoroscopy systems. Survey of modern fluoroscopy imaging: flat-panel detectors versus image intensifiers and more. RadioGraphics 31:591–602 Pisano ED, Cole EB, Hemminger BM et al (2000) Image processing algorithms for digital mammography: a pictorial essay. RadioGraphics 20:1479–1491 Willis CE, Thompson SK, Shepard SJ (2004) Artifacts and misadventures in digital radiography. Appl Radiol 33(1):11–20

Ringraziamenti Gli autori desiderano ringraziare l'Ing. Andrea Carola per le preziose informazioni e precisazioni sulle elaborazioni intrinseche, utili alla realizzazione di questo capitolo.

165

166

ESERCIZI

Esercizi 1) Che cosa si intende con bad pixel: a) un pixel di dimensioni anomale rispetto ai circostanti b) un difetto associato a un singolo elemento di rivelazione c) un pixel che assume valori casuali saltuariamente d) un pixel che non ha associato nessun elemento di rivelazione 2) Quale dei seguenti gruppi di elaborazioni intrinseche è comunemente impiegato nella realizzazione di una radiografia digitale del torace: a) LUT sigmoide, unsharp masking ed equalizzazione nel dominio delle frequenze b) LUT esponenziale, filtro mediano ed equalizzazione dell’istogramma c) LUT gamma, filtro laplaciano e filtro di Butterworth d) LUT lineare, filtro di Sobel ed equalizzazione dell’istogramma 3) L’unsharp masking può essere parametrizzato variando: a) il numero di volte che viene applicato b) esclusivamente le dimensioni del kernel c) esclusivamente il guadagno dell’immagine associata ai bordi d) le dimensioni del kernel del filtro di smoothing e il guadagno dell’immagine associata ai bordi 4) In mammografia digitale, per limitare l’effetto del gradiente di spessore tra la parte di organo più vicina alla parete toracica e la parte più distale che avrà spessore e attenuazione decrescenti, è possibile utilizzare: a) l’equalizzazione dell’istogramma CLAHE b) il filtro mediano c) una semplice LUT sigmoide d) un filtro passa-basso 5) Il flusso di dati di una sequenza di immagini angiografiche con campo di vista 30 30 cm, pixel di 0,2 mm, profondità 16 bit e frequenza di 30 frame al secondo è di circa: a) 13 MiB/s b) 65 MiB/s c) 130 MiB/s d) 1300 MiB/s 6) La tecnica di rebinning per ridurre il flusso di dati in angioradiologia consiste in: a) una riduzione della frequenza di acquisizione delle immagini b) una riduzione dell’area delle immagini rappresentate, acquisendo alternativamente i quattro quadranti della regione sensibile del rivelatore c) una riduzione della profondità di pixel delle immagini rappresentate, passando da 16 a 12 bit

ESERCIZI

167

d) una riduzione della discretizzazione spaziale, attraverso la confluenza in un unico pixel dell’informazione proveniente da piccole sottomatrici quadrate di 2 2 rivelatori 7) In a) b) c) d)

angioradiologia si utilizzano elaborazioni intrinseche per: aumentare lo scarso contrasto dei vasi ridurre il degrado dell’immagine dovuto al movimento delle strutture rappresentate aumentare il contrasto dei tessuti molli ridurre il degrado dell’immagine dovuto alla presenza di parti ossee

8) La scelta del filtro di convoluzione in tomografia computerizzata è importante perché ha conseguenze: a) sulla risoluzione spaziale e sul rumore delle immagini ottenute b) sullo spessore di strato c) sul contrasto globale dell’immagine d) sulle dimensioni delle immagini ottenute 9) Per caratterizzare un filtro di convoluzione utilizzato nella ricostruzione in tomografia computerizzata è utile conoscere: a) la matrice di convoluzione b) lo spettro del rumore associato c) la sigla che lo identifica d) la percentuale di riduzione del rumore 10) L’utilizzo di metodiche iterative di ricostruzione in TC permette di ottenere immagini: a) con rumore ridotto e spettro del rumore spostato verso le basse frequenze b) con risoluzione aumentata e spettro del rumore spostato verso le alte frequenze c) con rumore ridotto a scapito della risoluzione spaziale d) con rumore ridotto e spettro del rumore spostato verso le alte frequenze

La memorizzazione delle immagini digitali

6

Indice dei contenuti 6.1 6.2 6.3 6.4 6.5 6.6

I formati di file per la memorizzazione La compressione delle immagini digitali Tecniche di compressione Panoramica dei formati di file per immagini digitali La trasmissione delle immagini digitali Considerazioni finali Esercizi

Il passo finale nel trattamento delle immagini digitali è l’archiviazione, al fine di mantenere stabilmente una copia dell’immagine acquisita ed eventualmente elaborata. Un’immagine digitale è composta da un insieme di dati: • la dimensione, definita dal prodotto tra il numero di pixel orizzontali, e il numero dei pixel verticali; • il valore assunto da ciascun pixel, definito da un insieme di bit in quantità sufficiente a descrivere il numero di colori o livelli di grigio richiesti dall’immagine stessa. Per descrivere un’immagine avente dimensione 1024 768 e con 4096 livelli di grigio (per la codifica dei quali servono non meno di 12 bit), sono necessari 1024 768 2byte  1572864 byte perché 2 è il minimo numero di byte necessari a contenere 12 bit. L’immagine dell’esempio richiederà 1,5 MiB di spazio su disco per essere archiviata in modalità raw, modalità in cui i valori di ciascun pixel sono salvati linearizzando l’immagine per righe o per colonne, come si può vedere nella Figura 6.1.

L’immagine digitale in diagnostica per immagini. Mario Coriasco, Osvaldo Rampado, Nello Balossino, Sergio Rabellino DOI: 10.1007/978-88-470-5364-9_6 © Springer-Verlag Italia 2013

169

170

M. Coriasco et al.

Fig. 6.1 Linearizzazione per righe di un’immagine digitale

Questa è una convenzione per cui, sapendo a priori che l’immagine: • è stata linearizzata per righe successive; • ha dimensione 1024 768; • ogni suo pixel è memorizzato all’interno di 2 byte, di cui solo i primi 12 bit significativi, è possibile ricostruire l’immagine originale a partire dal file contenuto nel supporto di memorizzazione. Si comprende che questa convenzione, per quanto comoda, difficilmente si presta per versatilità ed efficienza, perché ogni minimo cambiamento dell’immagine in uno dei suoi parametri fondamentali, presuppone un radicale cambio del programma adibito alla sua ricostruzione. Il programma necessario alla ricostruzione dell’immagine, adatto nell’esempio appena riportato a un’immagine linearizzata con matrice 1024 768, non è più consono per un’immagine con matrice 1600 1200 o per un’immagine con un differente numero di livelli di grigio. Al fine di ovviare a questa scarsa flessibilità è utile definire degli standard per la memorizzazione, che prendono il nome di formato di memorizzazione dell’immagine. Nel tempo sono stati definiti centinaia di formati diversi. Elencarli e considerarli tutti è al di fuori degli obiettivi di questo testo; verranno trattati dunque solo alcuni tra i formati più diffusi e utilizzati. Molti produttori di software hanno sviluppato e proposto alla comunità internazionale uno o più standard, alcuni dei quali sono stati accettati dagli organismi di standardizzazione quali ITU o CCITT, ma molti di essi rimangono relegati all’ambito del software proprietario in cui sono nati. Sarà inoltre trattata la compressione delle immagini digitali come strumento per ottimizzare la rappresentazione delle immagini in termini di spazio occupato sui supporti di memorizzazione.

6.1 I formati di file per la memorizzazione Un formato di file è la convenzione usata per leggere, scrivere e interpretare i contenuti di un file, un insieme ordinato di byte, scritto su un supporto di memorizzazione

6 La memorizzazione delle immagini digitali

quale può essere un disco magnetico, un nastro, un download via internet o un supporto ottico. Un formato di file per immagini può prevedere dello spazio aggiuntivo al cui interno sono descritte le caratteristiche salienti dell’immagine (header): • le dimensioni spaziali (righe/colonne); • il numero di bit effettivamente utilizzati per descrivere ciascun pixel; • l’eventuale ordine dei colori e a quale spazio appartengono (RGB, BGR, GRB, YUV, YIQ, CMYK); • informazioni sulla persona che ha realizzato l’immagine; • eventuali dati anagrafici e anamnestici del paziente a cui l’immagine si riferisce; • numero di immagini contenute nel file; • altre informazioni legate allo specifico formato o software. L’header è una struttura dati in grado di descrivere compiutamente la parte restante del file, consentendo al software di ricostruire le immagini memorizzate anche senza conoscerne a priori le caratteristiche. Qualsiasi errore presente nella struttura del file rende impossibile ricostruire correttamente l’immagine memorizzata, per cui si deve porre particolare cura nel rendere i formati di file matematicamente resistenti agli errori, al fine di minimizzare la perdita di informazioni. Le tecniche coinvolte prevedono la ridondanza dei dati e l’uso di codici a controllo di errori (CRC), la cui analisi dettagliata va oltre gli obiettivi del presente testo. Tipico è il caso delle immagini trasmesse dalle sonde spaziali: i tempi particolarmente elevati necessari alla trasmissione non consentono di inviare ripetutamente l’immagine fintanto che almeno una pervenga correttamente alla base terrestre. Per questi scopi sono utilizzati formati tali da consentire la perdita di parti considerevoli del file (anche il 25% di dati mancanti o errati) ma in grado di fornire ugualmente la ricostruzione corretta dell’immagine inviata dalla sonda. L’archiviazione sicura di immagini provenienti da esami diagnostici può avvantaggiarsi di strumenti simili, al fine di garantirne la corretta conservazione nel tempo, essendo i supporti di memorizzazione soggetti a guasti e rotture nonché a limitata affidabilità nel tempo.

6.2 La compressione delle immagini digitali Una delle peculiarità di molti formati è la possibilità di ridurre le dimensioni del file contenente l’immagine digitale, utilizzando tecniche dette di compressione dei dati. In informatica la compressione avviene in forma differente rispetto al concetto intuitivo cui si è abituati nel mondo reale. La compressione non è di natura meccanica, non si schiacciano i dischi su cui sono memorizzate le immagini, provocandone peraltro la distruzione; si utilizzano invece alcune proprietà tipiche dei numeri e delle immagini digitali per ottenerne una rappresentazione più sintetica. Da queste rappresentazioni più compatte sarà possibile ricostruire con un maggiore o minore grado di fedeltà l’immagine originale, a seconda delle tecniche adoperate per

171

172

M. Coriasco et al.

la compressione; la caratteristica fondamentale di qualsiasi algoritmo usato per la compressione è il suo grado di reversibilità, ovvero la capacità di invertire le operazioni effettuate durante la compressione. L’operazione di ricostruzione dell’immagine prende il nome di decompressione. Una prima suddivisione tra i vari metodi di compressione adottati nei formati di file può essere fatta in base al grado di fedeltà nella ricostruzione dell’immagine: • assoluta: compressione senza perdita di informazione (lossless); • relativa: compressione con perdita di informazione controllata (lossy). Nel primo caso, la compressione garantisce a priori che l’immagine ricostruita coincida con l’immagine originale, nel secondo l’immagine ricostruita sarà soltanto un’approssimazione dell’immagine originale: la bontà della ricostruzione sarà data dall’efficienza dell’algoritmo utilizzato e dai vincoli di qualità imposti in fase di compressione. In generale, i file ottenuti con compressione lossless sono caratterizzati da dimensioni maggiori rispetto a quelli ottenuti con compressione lossy. Sarà l’utente a valutare quale formato si adatti meglio alle esigenze di memorizzazione, anche in base a eventuali vincoli normativi. Per quantificare l’entità del risparmio, si introduce il concetto di fattore di compressione (compression rate) ottenibile dal rapporto tra la dimensione raw dell’immagine e la dimensione del file compresso. Nell’esempio precedente, l’immagine ha dimensione raw di 1,5 MiB; se il file compresso ha dimensione 0,8 MiB, il fattore di compressione vale 1,5 MiB / 0,8 MiB  1,875. Fattori di compressione maggiori indicano un algoritmo più efficiente, a patto che la qualità dell’immagine ricostruita sia mantenuta invariata. La ricerca è costantemente orientata a definire nuovi algoritmi in grado di comprimere con maggior efficienza le immagini digitali, mantenendo invariata la qualità dell’immagine ricostruita.

6.2.1 La valutazione della qualità della compressione: il PSNR

Per valutare la bontà di un algoritmo di compressione, è utile adottare un metodo che consenta di misurare quanto l’immagine ricostruita, a fronte della decompressione, si discosti da quella originale. La misura adottata per valutare la qualità di un’immagine compressa rispetto all’originale è il peak signal-to-noise ratio (PSNR). Questo indice di qualità delle immagini è definito come il rapporto tra la massima potenza del segnale e la potenza del rumore che può invalidare la fedeltà della sua rappresentazione compressa. Spesso le immagini presentano una gamma dinamica molto ampia, per cui il PSNR è solitamente espresso in scala logaritmica. Matematicamente, il PSNR è più facile da definire attraverso l’errore quadratico medio. Sia R l’immagine originale e K l’immagine ottenuta dall’operazione di compressione/decompressione; tali immagini avranno le stesse dimensioni (X,Y), per cui

6 La memorizzazione delle immagini digitali

173

definiamo l’errore quadratico medio (Mean Square Error, MSE) tra le due immagini come: MSE =

1 XY

X −1

Y −1

i =0

j =0

∑ ∑ R( i, j ) − K ( i, j )

2

Il PSNR è definito come: ⎛ MAX { R} ⎞ ⎟ PSNR = 20 * log10 ⎜⎜ ⎟ ⎝ MSE ⎠

dove MAX{R} è il massimo valore che può assumere un pixel nell’immagine; nel caso di un’immagine binarizzata il MAX {R} avrà valore 1, per una immagine a 256 livelli di grigio avrà valore 255. Maggiore è il valore del PSNR maggiore è la somiglianza con l’immagine originale, e quindi maggiore è la bontà dell’algoritmo di compressione analizzato; tipici valori di PSNR variano da 20 a 40. Si noti che il PSNR non è una misura assoluta: potrà essere utilizzato esclusivamente per valutare e confrontare due metodi di compressione applicati alla stessa immagine originale. Il suo valore può essere utilizzato per caratterizzare la bontà un algoritmo in termini relativi, ma solo come termine di confronto tra diversi algoritmi applicati allo stesso insieme di dati di partenza.

6.3 Tecniche di compressione Verranno analizzati di seguito i principali algoritmi di compressione, evidenziandone le caratteristiche peculiari.

6.3.1 Packing Bits

Un semplice metodo di compressione si può realizzare usando con maggiore efficienza i byte all’interno dei file, quando i possibili valori assunti dai pixel non siano un multiplo esatto di 8 bit. Nel caso tipico di immagini in scala di grigi aventi 12 bit riservati alla luminanza, ogni pixel necessita di 16 bit (2 byte) per poterne contenere 12, in quanto all’interno dei file non è possibile scrivere porzioni inferiori a 8 bit (il byte). Inserendo un’opportuna intelligenza a monte della scrittura dell’immagine, sarà possibile sfruttare i 4 bit rimasti inutilizzati per memorizzare i primi 4 bit del pixel successivo, usando così 3 byte per memorizzare 2 pixel invece di 4 byte. In fase di ricostruzione sarà necessario leggere il file di 3 byte in 3 byte per poter decomprimere 2 pixel alla volta.

174

M. Coriasco et al.

È immediato comprendere che questo metodo è non distruttivo (lossless), in quanto tutta l’informazione presente nell’immagine è preservata integra, ma è anche ovvio che la compressione è inefficace nel momento in cui i pixel siano esprimibili con multipli esatti di 8 bit. 6.3.2 L’algoritmo RLE

Osservando attentamente un’immagine, si può notare che spesso è facile individuare aree con uguale intensità di colore o luminanza. L’algoritmo che sfrutta questa peculiarità delle immagini prende il nome di Run Length Encoding (RLE). La compressione avviene ricercando i pixel contigui aventi ugual valore e sostituendo all’insieme dei pixel una coppia di dati: il primo indica quanti pixel fanno parte dell’insieme, il secondo il valore assunto da tutti i pixel dell’insieme. Per esempio, consideriamo una piccola porzione di immagine, in cui i pixel abbiano i seguenti valori: [95 12 12 12 4 10 10 10 10 10] (10 byte) applicando la compressione RLE, otterremo un elenco come segue: [1#95 3#12 1#4 5#10] (8 byte). Per la decompressione della lista, ogni coppia N#V sarà rimpiazzata da N volte il valore V. Qualora i pixel contigui siano in numero K maggiore di 255, allora verranno create M coppie di valori, tali che N1  N2  ...  NM  K con N  255. Questo tipo di compressione è molto efficiente se applicato a immagini costruite sinteticamente al computer, mentre tende a essere scarso se l’immagine proviene dal mondo reale, laddove è difficile che compaiano aree di grandi dimensioni aventi esattamente lo stesso colore o livello di grigio. Questo metodo di compressione appartiene ai metodi lossless, in quanto nessuna informazione è persa durante le fasi di compressione/decompressione. 6.3.3 La perdita di informazione sul colore

È possibile comprimere anche riducendo la quantità di colori presenti in un’immagine al fine di ottenere un’immagine in cui ciascun pixel sia rappresentato da un numero inferiore di bit rispetto all’immagine originale. Scegliamo un insieme di colori minimale dell’immagine originale e li numeriamo (in genere vengono scelti insiemi da 2 fino a 256 colori) creando una tavolozza, come farebbe un pittore che ha in mente un quadro da realizzare e seleziona i colori con cui dipingere la scena. Memorizziamo l’immagine originale andando a cercare per ogni pixel quale dei colori prescelti meglio approssima il colore originale e memorizziamo, al suo posto, la posizione che questo colore simile ha nella tavolozza.

6 La memorizzazione delle immagini digitali

Per stimare il fattore di compressione, ipotizziamo che l’immagine originale usi 3 byte per descrivere il colore di ogni pixel (classica codifica di RGB a 8 bit per componente); scegliendo una tavolozza di 256 colori (per cui è sufficiente 1 byte), otterremo un risparmio di 2 byte per ogni pixel dell’immagine, a cui sarà da togliere lo spazio necessario per allegare la tavolozza che è fissata a priori e occupa 768 byte ( 256 3 byte). Avremo pertanto un risparmio crescente con la dimensione dell’immagine da comprimere. In un’immagine reale il numero di colori presenti può essere molto superiore al numero di quelli scelti per la tavolozza, per cui sono stati realizzati degli algoritmi detti di dithering che consentono di ottimizzare la scelta dei colori per gruppi di pixel adiacenti al fine di rendere l’immagine il più possibile simile all’originale sotto il profilo percettivo. La compressione dei colori è un metodo generalmente lossy in quanto, durante la trascrizione dell’immagine con la tavolozza, l’informazione sul colore originale del pixel è persa per sempre a favore di una stima che, per quanto sia ben calcolata, difficilmente corrisponderà al valore originale.

6.3.4 L’algoritmo di codifica di Huffman

Quest’algoritmo di compressione non distruttivo fu inventato nel 1952 dal matematico D.A. Huffman ed è un metodo di compressione detto anche entropico, con riferimento alla misura dell’entropia nella teoria dell’informazione. L’algoritmo analizza il numero di ricorrenze di ciascun pixel, ottenendo la frequenza con cui un determinato colore si presenta nell’immagine da comprimere. I due colori meno frequenti sono accomunati in una categoria che li rappresenta entrambi, avente quindi una ricorrenza pari alla somma delle occorrenze dei colori componenti. Così, ad esempio, se il colore A ricorre 8 volte e il colore B 7 volte, viene creata la categoria AB, avente 15 ricorrenze. Intanto, i colori A e B ricevono ciascuno un differente marcatore (0 e 1) che li identifica come elementi entrati in una categoria e vengono considerati come un nuovo colore. L’algoritmo identifica i due successivi elementi meno frequenti nel file e li riunisce in un nuovo colore, usando lo stesso procedimento descritto precedentemente. Il gruppo AB potrà a sua volta entrare in nuove associazioni e costituire, ad esempio, la categoria CAB. Quando ciò accade, la A e la B ricevono un nuovo marcatore che allunga il codice di identificazione di ciascuno dei due colori nel file compresso che verrà generato. L’algoritmo termina nel momento in cui esistono solo due categorie a cui assegnare il marcatore. Si crea per passaggi successivi un grafo costituito da una serie di ramificazioni binarie, all’interno del quale appaiono con maggiore frequenza e in combinazioni successive gli elementi più rari all’interno del file, mentre appaiono più limitatamente gli elementi più frequenti. In base all’algoritmo descritto, ciò fa sì che gli elementi rari all’interno del file non compresso siano associati a un codice identificativo lungo, che accresce di un elemento a ogni nuova associazione.

175

176

M. Coriasco et al.

Fig. 6.2 Immagine di esempio per l’applicazione dell’algoritmo di Huffman

Gli elementi che si ripetono più spesso nel file originale sono anche i meno presenti nell’albero delle associazioni, sicché il loro codice identificativo sarà il più breve possibile. Terminata la costruzione del codice, viene generata l’immagine compressa, sostituendo a ciascun valore del pixel nell’immagine originale il relativo codice associato al colore. Il guadagno di spazio al termine della compressione è dovuto al fatto che gli elementi che si ripetono frequentemente sono identificati da un codice breve, che occupa meno spazio di quanto ne occuperebbe la loro codifica normale. Viceversa, gli elementi rari nel file originale ricevono nel file compresso una codifica lunga che può richiedere, per ciascuno di essi, uno spazio anche notevolmente maggiore di quello occupato nel file non compresso. Da quanto detto si deduce che questo tipo di compressione è tanto più efficace quanto più ampie sono le differenze di frequenza degli elementi che costituiscono il file originale, mentre scarsi sono i risultati che si ottengono quando la distribuzione degli elementi è uniforme. Prendiamo ad esempio un’immagine avente dimensioni 64 64 con 4 livelli di grigio, con ipotetica distribuzione dei pixel come si può vedere in Figura 6.2. Applichiamo l’algoritmo di Huffman e raggruppiamo G1 e G3, creando il gruppo G1-3 (760  480  1240 ricorrenze) e marchiamo G1 con 0 e G3 con 1; proseguendo, raggruppiamo G2 con G1-3, creando il gruppo G2-1-3 (1204  1240  2444 ricorrenze) e marchiamo G1-3 con 0 e G2 con 1. Terminiamo marcando G1-2-3 con 0 e G4 con 1. Notiamo che, nella marcatura, abbiamo sempre segnato con 1 l’elemento con minore numerosità, e con 0 l’altro; questa è ovviamente una convenzione, l’importante è che tale scelta sia mantenuta coerente durante la costruzione dell’albero. In Figura 6.3 è possibile apprezzare i passi compiuti nella creazione dell’albero di Huffman. Se ora ripercorriamo le scelte al contrario risalendo le marcature, scrivendo da sinistra a destra, otteniamo il codice di Huffman di Figura 6.4. La dimensione teorica dell’immagine espressa in bit è di 64 64 2  8192 bit (4 livelli di grigio richiedono 2 bit), ma se ora esprimiamo i pixel secondo la tabella appena ottenuta, avremo una dimensione data da 1 16522 1204  760 3480 3  7780 bit con un fattore di compressione 8192 bit / 7780 bit  1,0529.

6 La memorizzazione delle immagini digitali

177 Fig. 6.3 Grafo di Huffman

Fig. 6.4 Codice di Huffman

Il lettore non si allarmi per questo risultato così poco entusiasmante, ma la semplicità dell’esempio utilizzato induce un fattore di compressione scarso; l’algoritmo di Huffman risulta molto più efficiente nei casi reali, tanto da essere correntemente usato come algoritmo di base per diversi formati di file molto conosciuti, quali GIF e JPEG e il noto archiviatore ZIP. È infatti dimostrabile che questo metodo di codifica consente la massima compressione teoricamente raggiungibile per un’immagine senza perdita di informazione.

6.3.5 La compressione nello spazio trasformato

Una nuova famiglia di metodi di compressione si avvale della possibilità matematica di trasformare le immagini dal dominio spaziale a un dominio trasformato, in cui l’immagine è ancora compiutamente espressa secondo dei valori che non rappresentano più dei

178

M. Coriasco et al.

colori ma, a seconda della tecnica usata per la trasformazione, dei valori in uno spazio matematico diverso ma equivalente, di cui si è parlato diffusamente nel capitolo 4. La trasformazione dovrà garantire la reversibilità dell’operazione, al fine di ottenere una precisa ricostruzione dell’immagine di partenza. Il dominio trasformato può però presentare delle caratteristiche peculiari che, se sfruttate a dovere, possono condurre a fattori di compressione superiori a quelli ottenuti nel dominio spaziale. Le trasformate normalmente in uso per la compressione sono la Discrete Cosine Transform (DCT) e la Discrete Wavelet Transform (DWT), anche se per correttezza è giusto ricordare che esistono anche trasformate come la Discrete Fourier Transform, la Hadamard Transform o la Welch Transform e altre ancora. Una delle caratteristiche fondamentali di questi metodi è la possibilità di eliminare una certa quantità di informazioni del dominio trasformato, degradando in modo controllato l’immagine che sarà ricostruita, creando i presupposti per la creazione di metodi lossy in cui è possibile determinare a priori il grado di fedeltà dell’immagine decompressa. La trattazione matematica delle trasformate è sicuramente interessante, ma non negli obiettivi di questo testo; lasciamo al lettore interessato la ricerca di informazioni più complete.

6.4 Panoramica dei formati di file per immagini digitali Come accennato in precedenza, esistono moltissimi formati di file per la memorizzazione delle immagini digitali; riportiamo di seguito un breve elenco dei formati più diffusi. • BMP: è il formato più utilizzato per le immagini su computer dotati di sistema operativo Windows™ ed è l’acronimo di BitMaP. Consente di memorizzare immagini di qualsiasi dimensione e con profondità di colore a 32 bit. L’unico algoritmo di compressione utilizzabile con questo formato è l’algoritmo RLE; • JPEG: è il formato utilizzato correntemente nella fotografia digitale ed è stato sviluppato dal Joint Photographic Expert Group, formato nel 1986 con lo scopo di stabilire uno standard di compressione per le immagini a tono continuo. Data l’importanza di questo formato, la struttura di questo formato e le tecnologie in uso sono analizzate successivamente con maggiore profondità; • TIFF: il formato Tagged Image File Format nasce dall’esigenza di associare delle informazioni a compendio delle immagini (tagging) quali la risoluzione, lo spazio di colore in uso e altro ancora. Per la compressione utilizza l’algoritmo non distruttivo Lempel-Ziv-Welch (LZW) che, al suo interno, utilizza una versione particolare dell’algoritmo di Huffman. È il formato di riferimento nell’ambito dell’editoria elettronica. Recentemente si è affermato il formato Digital NeGative (DNG) che è un formato lossless basato sullo standard TIFF ed è utilizzato per la memorizzazione delle fotografie digitali; • GIF: CompuServe Graphics Interchange Format, è uno dei formati di file più comunemente usati per le immagini su Internet. Utilizza il metodo di compressione a perdi-

6 La memorizzazione delle immagini digitali

















ta di informazione sul colore con tavolozze da 1 a 8 bit e, successivamente, comprime con LZW l’immagine a colori ridotti. È un formato compresso, sviluppato per ridurre al minimo il tempo di trasferimento delle immagini sulle linee di trasmissione dati. Il formato consente, inoltre, di memorizzare una sequenza di immagini che saranno successivamente visualizzate dai browser internet come una animazione. Al momento, la bassa qualità dell’immagine e il brevetto sull’algoritmo LZW ne stanno limitando pesantemente la diffusione a favore di altri formati non coperti da royalty; PNG: Portable Network Graphics, è un formato di recente definizione nato in contrapposizione a GIF, con l’obiettivo di creare uno standard non brevettabile (OpenStandard) e di maggiore flessibilità. Sarà affrontato diffusamente più avanti nel testo; JPEG2000: è l’evoluzione naturale del progetto JPEG e ha caratteristiche innovative che lo fanno eleggere come il miglior formato per la memorizzazione delle immagini nel futuro prossimo. Anche questo formato sarà oggetto di approfondimento a seguire; ACR-NEMA: l’American College of Radiology (ACR) e la National Electrical Manufacture Association (NEMA) nella prima metà degli anni ’80 hanno concordato uno standard comune per permettere di connettere diverse unità radiologiche e di archivio o elaborazione con possibilità di scambio reciproco di informazioni. La prima stesura dello standard (versione 1.0) è del 1985, per approdare 3 anni più tardi alla versione 2.0. In queste prime versioni, gran parte dell’attenzione è concentrata nel tentativo di formulare una codifica comune dei dati, con sequenze di caratteri che siano universalmente riconoscibili per identificare il tipo e la posizione delle informazioni trasportate; DICOM/3: è il formato d’elezione nell’ambito medico-diagnostico e deriva direttamente da ACR-NEMA di cui DICOM/3 è la versione 3.0. Per la complessità e l’importanza che ricopre nel nostro contesto, l’approfondimento successivo è obbligatorio; PAPYRUS: realizzato da un gruppo dell’università di Ginevra, è DICOM-compatibile ed è celebre per il software OSIRIS. Costituisce un’estensione di ACR-NEMA 2 e ha contribuito allo sviluppo di DICOM 3, in particolare per la sezione 10 specifica dei formati dei file immagini; INTERFILE: molto diffuso nell’ambito della medicina nucleare, nasce originariamente per il trattamento di immagini di fantocci per controlli di qualità e poi esteso all’uso clinico. Specifica un formato di file composto da valori chiave di tipo ASCII (key value). I dati dell’immagine possono essere contenuti all’interno dello stesso file come administrative information o in un file separato individuato da una chiave del tipo name of data file; ANALYZE: formato che prende il nome dal software commerciale che ne fa uso. Per ogni insieme di immagini esistono due file: uno di intestazione contenente le proprietà, avente estensione .hdr, e uno contenente la matrice numerica dei dati, avente estensione .img. È adatto per elaborazioni con software matematico, come ad esempio Matlab; QSH: indica una famiglia di programmi per la manipolazione di immagini. Anche in questo caso, l’intestazione e i dati dell’immagine sono memorizzati in due file separati, con estensione rispettivamente .qhd e .qim.;

179

180

M. Coriasco et al.

• DEFF: formato specifico delle immagini ecografiche ideato per la loro stampa, trasmissione e archiviazione. Il formato deriva dal TIFF di cui è un’estensione, per cui sovente è possibile ricostruire l’immagine utilizzando software in grado di interpretare il formato TIFF.

6.4.1 Requisiti principali dei formati di immagini medicali

Nei file di immagini medicali possiamo generalmente trovare tre tipologie di informazioni ritenute essenziali per una corretta generazione e archiviazione delle immagini: • i dati della matrice dell’immagine (che possono essere compressi o nella forma originale); • l’identificazione del paziente e i suoi dati anagrafici; • le informazioni relative alla tecnica dell’esame, alla serie, al numero di immagini. I vari formati di file potranno disporre queste informazioni all’interno del file seguendo una delle seguenti strategie: • formato fisso, in cui lo spazio destinato a ogni informazione è costante, definito a priori e ogni tentativo di immettere informazioni più ampie e meglio descrittive è inutile; • formato a blocchi, in cui l’intestazione contiene dei rimandi alle informazioni, generalmente allocate al termine del file, in modo da poter ampliare a piacere la dimensione delle informazioni a contorno dell’immagine medicale, senza intaccare la posizione dei dati dell’immagine; • formato tag-based, in cui ogni informazione nel file è delimitata da un simbolo di inizio e uno di fine (tag) che divide in sezioni esplicite il file e memorizza distintamente in ciascuna sezione i dati relativi alla matrice e le informazioni al contorno, eliminando ogni rigidità nella struttura del file. Sarà cura dell’operatore, qualora consentito dall’apparecchiatura, scegliere il formato di file con le migliori caratteristiche, coerenti con le necessità di impiego.

6.4.2 Lo standard DICOM/3

Lo standard DICOM/3 si presenta come un notevole sforzo di introdurre una normativa per tutti gli aspetti dell’acquisizione, trattamento e trasmissione delle immagini digitali nell’ambiente medicale. Per fare ciò, lo standard DICOM/3 realizza un dettagliato modello a oggetti, descrivendo paziente, immagine, apparecchiatura e stampante, che insieme concorrono a formare il dato radiologico. In particolare, ogni oggetto presenta delle proprietà e offre dei servizi, cioè delle azioni come memorizzazione, trasmissione o stampa, delle quali può essere fornitore o utente. In questo contesto si inserisce anche il formato delle immagini, trattato nella parte 10 dello standard. Le immagini sono rappresentate da information object, costituiti da una serie di moduli che possono essere presenti o assenti in accordo con determinate regole.

6 La memorizzazione delle immagini digitali

Per esempio nell’information object di un’immagine TC saranno presenti, tra gli altri, il modulo relativo al paziente, o patient module, il modulo relativo all’apparecchiatura, o general equipment module, il modulo sulle caratteristiche dell’immagine TC, detto TC image module, e il modulo con i valori dei pixel, l’image pixel module. L’information object di un’immagine RM conterrà tutti questi moduli eccetto quello sulle caratteristiche TC, che sarà sostituito da uno analogo sulle caratteristiche RM. In quest’ultimo potranno trovarsi, per esempio, il TE e il TR della sequenza, che ovviamente non è definito per un’immagine TC, ma è importante sottolineare che tutti gli altri moduli saranno analoghi per le due tipologie dei file di immagini. Per indicare in maniera univoca ogni file immagine, DICOM adotta il concetto ISO di identificatore univoco, o unique identifier, per cui il nome del file è costituito da una sequenza di numeri intervallati da punti, con estensione .dcm, acronimo di DICOM. Per esempio, il nome di un file di un’immagine RM potrà assumere la forma: 1.3.12.2.1107.5.2.2.9320.20021122153628000001001.dcm laddove le prime cifre evidenziate in corsivo si riferiscono a parametri dello standard ISO e all’identificazione dell’apparecchiatura, mentre successivamente le cifre identificano la data e l’ora dell’esame, il numero identificativo della serie e il numero ordinale dell’immagine nella serie. Analizziamo ora maggiormente nel dettaglio l’intestazione di un file DICOM. Per poter osservare le informazioni che ora verranno presentate è sufficiente disporre di un DICOM Viewer, cioè di un software in grado di leggere e rappresentare sia l’immagine che i dati informativi presenti nel file DICOM/3. In internet è possibile reperire diversi software anche gratuiti, come per esempio EZDicom, MRIcro, ImageJ, IrfanView, Microdicom o Dicom Dumper. Oltre ad applicazioni orientate alla semplice visualizzazione dei dati, su internet è possibile reperire anche dei software per la realizzazione di sistemi di archiviazione e trasmissione di immagini, normalmente identificati con l’acronimo PACS (Picture Archiving and Communication System); l’uso di questi sistemi consente la gestione dell’archiviazione e, quindi, il successivo reperimento delle immagini tramite opportune ricerche. Tra i tanti disponibili, ricordiamo K-Pacs, Dicoogle e Dcm4chee, tutti software utili per la creazione di PACS server su cui archiviare i dati provenienti da apparecchiature diagnostiche. Ricordiamo che, secondo l’attuale legislazione nazionale, i dati medici sono considerati dati sensibili e, pertanto, dovrà essere posta particolare cura nella realizzazione di un sistema di archiviazione di immagini diagnostiche non anonimizzate, in cui il software PACS di gestione rappresenta solamente una delle componenti. La Figura 6.5 mostra le informazioni presenti nella intestazione di un file DICOM/3. In questo caso, le immagini memorizzate hanno una dimensione di 2192 2248 1 voxel (pixel tridimensionale), con 11 bit per voxel e 16 bit in realtà allocati, per uno spazio occupato da ciascuna immagine è di circa 9 MiB. I primi 128 byte, tutti con valore zero, seguiti dalle lettere ASCII “D I C M” costituiscono un preambolo con il quale inizia il file. Nelle varie parti della Figura 6.5 compaiono i diversi moduli informativi che sono identificati da un codice esadecimale. Il codice 0028 indica il gruppo relativo alle ca-

181

182

M. Coriasco et al.

Fig. 6.5 Elementi informativi all’interno dell’intestazione di un file DICOM/3

ratteristiche di presentazione dell’immagine, tra le quali troviamo l’interpretazione fotometrica, che in questo caso è una scala di grigi, il numero di immagini memorizzate, il numero di bits per pixel e così via. Le immagini DICOM/3 possono essere compresse con uno schema JPEG di tipo lossy o lossless, oppure con una compressione lossless di tipo RLE. Notiamo, comunque, che la validità clinica di immagini compresse con algoritmi lossy non è argomento di discussione per lo standard DICOM che fornisce i mezzi per poter realizzare entrambe le tipologie di compressione senza entrare nel merito della loro validità. Il modello di strutturazione dei dati riporta anche l’ordine dei byte all’interno dei dati per rappresentare valori interi che necessitano di più di un byte, che può essere di tipo little endian o big endian, a seconda dell’ordine con cui i byte devono essere interpretati per la ricostruzione del valore numerico decimale. Il completamento delle specifiche dello standard DICOM/3 è avvenuto nel settembre 1993, con il superamento delle difficoltà di interconnessione in rete attraverso l’adozione dei protocolli internet TCP/IP e lo standard di rete ISO-OSI. Definiti gli oggetti di interesse e tutte le loro caratteristiche, DICOM/3 definisce quali operazioni possono essere eseguite e su quali oggetti. Tali operazioni sono chiamate Dicom Message Service (DIMSE).

6 La memorizzazione delle immagini digitali

183 Fig. 6.6 Schema delle parti che compongono il protocollo DICOM/3

La combinazione di un oggetto e i corrispondenti servizi prende il nome di Service Object Pair (SOP) e l’insieme delle SOP relative a un unico oggetto formano una SOP Class. La base del protocollo di comunicazione è un modello Client/Server, laddove ogni volta che due applicazioni decidono di connettersi per scambiarsi informazioni, una delle due svolge il ruolo di fornitore del servizio (Service Class Provider, SCP), mentre l’altra quello di utente del servizio (Service Class User, SCU). Per ciascuna combinazione di SOP Class e ruolo, lo standard definisce un livello di negoziazione, durante la quale si stabilisce se la comunicazione tra i due apparati è possibile oppure no, sulla base delle rispettive capacità e specificità. Nella Figura 6.6 è schematizzato lo standard DICOM/3 nelle sue parti componenti. La suddivisione in sezioni tematiche consente l’aggiornamento parziale dello standard senza dover necessariamente ripubblicare le parti non variate, consentendo una più semplice evoluzione delle sezioni legate alla tecnologia. Vediamo ora brevemente una descrizione dei contenuti di ciascuna sezione: • Parte 1: contiene una panoramica dello standard stesso, con descrizione dei principi basilari. Tra di essi si trovano per esempio i concetti di oggetto e SOP Class, precedentemente introdotti; • Parte 2: in questa sezione viene fornita la definizione di conformità verso DICOM, cioè si richiede ai costruttori di descrivere chiaramente come gli apparati siano conformi a DICOM/3. Le precedenti versioni 1.0 e 2.0 di ACR NEMA non avevano queste caratteristiche, cosicché era possibile per due apparecchi essere dichiarati conformi pur utilizzando strutture e software diversi che non avrebbero permesso loro la comunicazione; • Parte 3: formula la definizione degli oggetti di informazione (IO), alcuni dei quali potrebbero contenere gruppi di attributi simili, raccolti insieme in una serie di moduli comuni. La Figura 6.7 mostra gli information objects definiti nell’allegato alla Parte

184

M. Coriasco et al.

Fig. 6.7 Tabella riassuntiva degli IO in DICOM/3

3 dello standard. La colonna di sinistra della Figura 6.7 mostra l’elenco delle definizioni degli IO che contengono attributi tra loro correlati, non direttamente legati all’oggetto in questione, più quelli inerenti. Per esempio l’IO Computed Tomography image contiene attributi come il nome del paziente, che è in relazione con l’immagine ma non direttamente inerente, mentre altri attributi lo sono, come per esempio la dimensione della matrice. Gli IO normalizzati contengono invece solo attributi direttamente collegati. L’utilizzo di oggetti composti è dovuto al fatto che la recente letteratura informatica ha mostrato che usando tale struttura, i relativi attributi possono essere richiamati più celermente; • Parte 4: mostra le specifiche delle classi di servizi che sono fondate su di una serie di operazioni base operanti su IO. Tali classi di servizi sono: certificazione, memorizzazione, richiamo/consultazione di immagini e informazioni, contenuto dello studio, gestione del paziente, gestione dell’esame, gestione del referto, gestione della stampa. Quando un’applicazione DICOM/3 genera una serie di dati, questa deve essere decodificata per poter essere inserita in un messaggio per la comunicazione. È importante sottolineare il fatto che affinché due entità possano effettivamente comunicare è necessario che entrambe siano state predisposte per la stessa classe di servizi, una come utente e l’altra come fornitore. Per esempio, un’apparecchiatura che supporta esclusivamente il servizio di stampa secondo DICOM/3 non potrà comunicare con un sistema PACS che supporti soltanto la classe di servizi di memorizzazione.

6 La memorizzazione delle immagini digitali



• •





• •

• • •



• • •



La dizione conforme a DICOM per un sistema o un’apparecchiatura si presta quindi a molte sfumature e deve essere verificata per le specifiche esigenze del reparto in cui dovrà essere utilizzata; Parte 5: le specifiche della codifica dati e i relativi processi formano la quinta parte di DICOM/3. Questa sezione definisce il linguaggio con cui le apparecchiature comunicano e descrivono, pertanto, anche gli standard di compressione utilizzabili; Parte 6: è l’elenco completo di tutti i tipi di dato, insieme ai loro possibili valori numerici o alfanumerici; Parte 7: definisce ciò che è necessario al software applicativo per interagire con i protocolli di comunicazione DICOM. Il formato base di un messaggio è costituito da una stringa di comando e una stringa di dati; Parte 8: il supporto di rete per il trasferimento dei messaggi è descritto nell’ottava parte: in ambiente DICOM, il protocollo di comunicazione utilizzato è il TCP/IP, che rappresenta uno standard, ormai molto diffuso, che consente il trasferimento di immagini e dati, a prescindere dal mezzo fisico di trasmissione, in modo efficiente e coordinato; Parte 9: sono raggruppate tutte le modalità relative ai vecchi protocolli punto-punto ancora in uso presso vecchi sistemi. Nel 1998 questa parte è stata ritirata e le informazioni in essa contenuta compaiono rinnovate nella Parte 13; Parte 10: descrive i formati dei file di immagine a cui abbiamo fatto cenno nei paragrafi precedenti; Parti 11 e 12: definiscono la forma e l’uso dei supporti diversi di memoria e trasmissione dati, come per esempio le pellicole 35 mm usate in cardiologia e che non vengono utilizzati in altri ambiti; Parte 13: si occupa della gestione della stampa e della comunicazione punto-punto; Parte 14: si occupa delle problematiche di visualizzazione delle immagini; Parte 15: vengono delineati i protocolli di sicurezza che possono essere utilizzati all’interno dei sistemi di gestione dei dati; i protocolli possono usare le tecniche classiche a chiave pubblica, così come le smartcard. Viene anche affrontato il tema della crittografia dei dati e degli schemi di cifratura standard da utilizzare per garantire la sicurezza dei dati; Parte 16: sono descritti i modelli per la creazione di documenti come IO, gli insiemi di termini codificati per l’uso negli information objects, e le loro traduzioni nelle diverse lingue; Parte 17: contiene chiarimenti ed esempi in forma di allegati informativi e normative; Parte 18: sono definiti i metodi attraverso i quali è possibile ottenere l’accesso a un oggetto DICOM per mezzo di schemi tipici del web, ovvero URL/URI; Parte 19: sono definite le Application Programming Interface (API) a disposizione dei programmatori per interagire con un sistema medicale conforme allo standard DICOM; la presenza di API standard consente di scrivere programmi che possono funzionare come plug-in, estensioni personalizzate in grado di aumentare le potenzialità del sistema medicale; Parte 20: definisce i modelli di trasformazione dei dati dallo standard DICOM allo standard ISO/HL7 27931 (Health Level 7, un altro standard per la realizzazione di sistemi informativi per immagini medicali).

185

186

M. Coriasco et al.

Senza dubbio, DICOM/3 rappresenta il progetto più ambizioso che sia mai stato intrapreso nell’ambito dell’imaging medicale, congiuntamente dall’industria e dalle associazioni professionali. Può apparire inizialmente complesso nella sua struttura e nella sua forma, ma ha dimostrato la sua fattibilità e utilità.

6.4.3 Lo standard di formato JPEG

La sigla JPEG identifica una commissione di esperti denominata Joint Photographic Expert Group, formata nel 1986 con lo scopo di stabilire uno standard di compressione per le immagini a tono continuo, cioè di tipo fotografico, sia a colori che in bianco e nero. Il lavoro di questa commissione ha portato alla definizione di una complessa serie di algoritmi, approvata come standard ISO nell’agosto del 1990 e successivamente divenuta la raccomandazione T.81 (9/92) della International Telecommunication Union (ITU). Il JPEG è uno standard industriale e non va confuso con il formato di file JPG, che rappresenta di volta in volta, a seconda del software, un sottoinsieme variabile e non sempre universalmente compatibile dello standard di riferimento. Pochi, ad esempio, sanno che le specifiche JPEG descrivono anche un formato di compressione non distruttivo ma che, a causa delle non eccezionali prestazioni, risulta poco utilizzato nella pratica. Analizziamo nel dettaglio la sequenza di operazioni che, a partire da un’immagine in formato raw RGB, porta a un’immagine compressa secondo lo standard JPEG (Fig. 6.8): 1. trasformazione dello spazio colore: a causa delle particolari caratteristiche dell’occhio umano, molto più sensibile alle variazioni di luminosità che alle variazioni cromatiche, è opportuno innanzitutto convertire l’immagine dallo spazio dei colori RGB allo spazio dei colori YUV. È questo lo spazio dei colori definito per il sistema televisivo PAL in uso in Europa. Tra i suoi equivalenti nel campo della computergrafica troviamo il metodo L*a*b presente in Adobe Photoshop. Il sistema YUV scompone l’informazione relativa a ciascun pixel in due componenti: la luminanza, che definisce il grado di luminosità nella scala da nero a bianco (Y), e la crominanza, che definisce il colore in base al rapporto tra due assi cartesiani, uno che va da blu a giallo (U) e l’altro che va da rosso a verde (V). Eseguire la trasformazione dallo spazio-colore RGB allo spazio-colore YUV non è indispensabile, ma consente di ottenere una maggiore compressione JPEG. Quando le successive trasformazioni matematiche che si applicano all’immagine trovano l’informazione nettamente suddivisa nelle due componenti di luminosità e di colore, possono procedere all’eliminazione di molte informazioni relative al colore senza intaccare quelle relative alla luminosità, più importanti per la visione umana, limitando in tal modo i danni visibili al contenuto dell’immagine. Ciò non è possibile invece nella stessa misura quando gli algoritmi di compressione si applicano a valori RGB, che presentano l’informazione relativa al colore e quella relativa alla luminosità fuse insieme. Ovviamente, questo discorso è ininfluente per le immagini in scala di grigio, in quanto l’informazione di crominanza è totalmente assente;

6 La memorizzazione delle immagini digitali

187 Fig. 6.8 Schematizzazione semplificata del processo di compressione JPEG

2. riduzione, in base alla componente, di gruppi di pixel a valori medi: è un’operazione opzionale, di cui alcuni software di grafica consentono l’impostazione. La componente che esprime la luminanza è lasciata invariata, mentre la componente cromatica viene dimezzata in orizzontale e in verticale, oppure soltanto in orizzontale. Ciò si esprime con il rapporto 2:1 per indicare il dimezzamento e con il rapporto 1:1 per indicare che la componente è lasciata invariata. Alcuni programmi di grafica, tra le opzioni di salvataggio in JPG, mostrano stringhe di difficile comprensione come 4:1:1 e 4:2:2, che esprimono appunto il coefficiente di riduzione che viene applicato alle componenti cromatiche dell’immagine. Tale operazione, che fa parte degli algoritmi distruttivi dello standard JPEG, riduce in partenza il file di una metà o di un terzo della sua grandezza originale. Non si applica alle immagini a toni di grigio e ciò spiega perché queste siano meno comprimibili in generale delle immagini a colori; 3. trasformata DCT applicata a blocchi di 8 8 pixel suddivisi in base alla componente: si tratta di una serie di operazioni matematiche che trasformano i valori di luminosità e colore di ciascuno dei 64 pixel di ogni blocco preso in esame in altrettanti valori di frequenza spaziale. In particolare, mentre i valori dei pixel contenuti nei blocchi di 8 8 tratti dall’immagine originale variano da 0 a 255, dopo l’esecuzione della DCT essi, trasformati in frequenze, variano da -721 a 721. Utilizzando una particolare combinazione di quantizzazione e codifica entropica, la trasformazione dei valori in frequenze consentirà nei passaggi successivi di tagliare più informazioni senza apparente perdita visiva di quante se ne potrebbero tagliare lavorando sui valori naturali dei pixel. Inoltre, la sequenza a zig zag in cui i nuovi valori vengono scritti consente di applicare ad essi una codifica di Huffman più efficace. Vediamo in Figura 6.9 la scrittura a zig zag dei valori ottenuti con la DCT, a partire dall’angolo superiore sinistro del blocco di 8 8 pixel (JPEG ITU.T81);

188

M. Coriasco et al.

Fig. 6.9 Image Blocking e scelta dei coefficienti della DCT

4. divisione e arrotondamento all’intero dei 64 valori ottenuti con la DCT: ciascuno dei 64 valori di frequenza viene diviso per uno specifico coefficiente di quantizzazione, codificato in apposite tavole di riferimento. Il risultato della divisione viene arrotondato all’intero più vicino. L’eliminazione dei decimali è la principale operazione di compressione distruttiva dello standard JPEG. Il tutto è studiato in modo che le frequenze più importanti per l’occhio umano, cioè le basse frequenze, memorizzate nell’angolo superiore sinistro del blocco di 8 8, siano preservate, mentre le più alte, la cui perdita è relativamente ininfluente, vengano progressivamente eliminate; 5. compressione non distruttiva dei coefficienti quantizzati: ai valori risultanti dalla divisione e dall’arrotondamento sopra descritti viene applicata una compressione non distruttiva, per la quale può essere utilizzato l’algoritmo Huffman; 6. inserimento nel file compresso di intestazioni e parametri per la decompressione: affinché il file possa essere in seguito decompresso e possa generare un’immagine il più possibile somigliante all’originale non compresso, occorre che nel file JPG siano inserite le tabelle contenenti i coefficienti di quantizzazione e i valori della tabella di codifica prodotta dall’algoritmo di Huffman. Un fenomeno molto conosciuto riguardo allo standard JPEG è la comparsa dei cosiddetti artefatti; tra questi, il più noto è il fenomeno dei blocchi quadrettati, che sono spesso chiaramente visibili nelle immagini JPG molto compresse e rappresentano un forte elemento di degrado della qualità. Essi sono la conseguenza diretta dell’algoritmo che suddivide l’immagine di partenza in blocchi da 8 8 pixel. Le varie trasformazioni applicate ai valori dei pixel di ciascun blocco sono del tutto indipendenti dalle trasformazioni applicate ai pixel dei blocchi adiacenti. Ciò causa talvolta transizioni brusche tra pixel adiacenti appartenenti a blocchi differenti. Il fenomeno è tanto più appariscente quanto più l’immagine contiene aree di colore uniforme e linee sottili ben separate dallo sfondo. Nell’esempio in Figura 6.10 è mostrato un particolare fortemente ingrandito dell’immagine di sinistra, che mostra in modo inequivocabile la quadrettatura tipica risultante dalla compressione JPEG.

6 La memorizzazione delle immagini digitali

189 Fig. 6.10 Immagine compressa JPEG e zoom per evidenziarne gli artefatti

6.4.4 Lo standard JPEG 2000

Il successo dello standard di compressione JPEG si può desumere dalle cifre: è stato calcolato, infatti, che l’80% circa delle immagini presenti su internet siano file JPG. Tuttavia, esiste il successore designato di questo fortunato standard: si tratta di un algoritmo che va sotto il nome di JPEG 2000. Le differenze tra i due standard sono numerose e la principale è senz’altro il cambiamento dello strumento matematico alla base dell’algoritmo di compressione. Se JPEG usa la trasformata Discrete Cosine Transform (DCT), JPEG 2000 usa la Discrete Wavelet Transform (DWT). Questa trasformata consente di superare il difetto principale delle immagini trattate secondo il normale standard JPEG, cioè la presenza di quei blocchi quadrettati che sono il prezzo da pagare per la maggior compressione ottenuta. Con l’uso della DWT, il contenuto del file originale non viene più suddiviso in blocchi da 8 8 pixel, ma l’immagine è analizzata nella sua totalità e, successivamente, scomposta per ottenere alla fine un file compresso, dove l’eventuale degrado dell’immagine è significativamente inferiore a quello ottenibile, a parità di fattore di compressione, con il JPEG tradizionale. Il degrado non si manifesta più attraverso i famosi blocchi quadrettati, ma con un aspetto più o meno sfocato dei contorni degli oggetti presenti nell’immagine. Ma vediamo in dettaglio quali sono le fasi della compressione eseguita con l’algoritmo JPEG 2000. 1. preparazione dell’immagine: la trasformazione wavelet agisce separando i contenuti a bassa frequenza, dai contenuti ad alta frequenza. Per far ciò è necessario che l’immagine originale sia suddivisa in quattro immagini più piccole, dotate ciascuna di un numero di colonne e di righe uguale a esattamente la metà del file iniziale. La preparazione consiste nel fornire alla DWT una griglia di righe e colonne tale da consentire

190

M. Coriasco et al.

Fig. 6.11 Esempio di trasformata wavelet in cui è possibile distinguere le quattro sottoimmagini scalate: in a le basse frequenze, in b le alte frequenze orizzontali, in c le alte frequenze verticali, in d le alte frequenze oblique

la ripetizione dell’operazione di suddivisione in quattro quadranti a ogni successivo stadio del ciclo di trasformazione operato con la DWT; 2. trasformazione: l’immagine viene trasformata dalla DWT e poi scalata, in modo da ottenere quattro immagini alte e larghe ciascuna esattamente la metà dell’originale. Nel quadrante superiore sinistro, grazie all’uso di un filtro passa-basso, sono salvate le basse frequenze presenti nel file di partenza. Negli altri tre quadranti, per mezzo dell’uso di un filtro passa-alto, sono salvate le alte frequenze. Il risultato di quest’operazione è la decorrelazione tra le informazioni di bassa e alta frequenza contenute nell’immagine. Il passaggio successivo consiste nella ripetizione del medesimo procedimento, applicato stavolta solo all’immagine del quadrante superiore sinistro, contenente le basse frequenze. Come risultato, l’immagine con le basse frequenze ha ormai altezza e larghezza pari a un quarto dell’originale, mentre tutto il resto è occupato dalle alte frequenze. Il procedimento poi continua per analisi e scalature successive, fino al limite minimo di un’immagine ridotta a un solo pixel. In Figura 6.11 è possibile apprezzare un esempio di trasformata wavelet applicata a un’immagine. Il risultato finale di tutta l’operazione è che l’intero contenuto informativo dell’immagine originale è stato frazionato in una serie di trasformazioni successive, che potranno poi essere compresse in un minimo spazio e utilizzate in modo reversibile in fase di decompressione, per generare un’immagine il più possibile simile all’originale non compresso; 3. quantizzazione e codifica: la quantizzazione è un’operazione generalmente distruttiva, che divide per specifici coefficienti i valori trovati dalla DWT e arrotonda poi i risultati all’intero più vicino. Le fasi di quantizzazione e di codifica hanno lo scopo di selezionare per cicli successivi i dati da comprimere e disporli poi in un ordine preciso all’interno del flusso dei dati. Possono essere implementate come stadi separati, così come avviene nel JPEG standard, con la fase di quantizzazione che elimina

6 La memorizzazione delle immagini digitali

la parte meno rilevante dell’informazione e passa i dati alla parte di software che si occupa della fase di codifica. Combinando quantizzazione e codifica in un singolo stadio, si ottiene la possibilità di controllare esattamente l’entità della compressione in termini di qualità dell’immagine. La dimensione del flusso di dati compresso può essere predefinita con esattezza. In questo caso, la quantizzazione dei coefficienti trasformati ha luogo durante la fase di codifica. Il primo ciclo di quantizzazione ha, per così dire, una grana grossa, nel senso che solo i coefficienti maggiori sono presi in considerazione e codificati. Al ciclo successivo, gli intervalli di quantizzazione vengono dimezzati, sicché divengono significativi coefficienti più piccoli. Ciò indica che i valori dei coefficienti selezionati nel primo ciclo sono specificati in modo sempre più preciso dalle informazioni aggiunte a ogni successivo ciclo di quantizzazione e codifica. I cicli continuano finché il flusso dei dati non ha raggiunto la sua lunghezza predefinita oppure fino a quando tutta l’informazione presente nell’immagine non viene codificata. Questo modo di incorporare nella sequenza finale di dati strutture via via più raffinate consente di ricostruire l’immagine iniziale a partire da qualsiasi blocco di dati contenuto nel file compresso, con la limitazione che la qualità dell’immagine ricostruita sarà tanto migliore quanto maggiore sarà la parte di dati utilizzata dall’intero flusso. Una simile caratteristica è importantissima per gli usi di questo formato su internet. I file compressi con JPEG 2000 racchiudono infatti al loro interno più risoluzioni differenti della stessa immagine. I produttori di software hanno quindi la possibilità di realizzare comandi in grado di consentire all’utente collegato via internet di decidere, in base al tempo stimato per il download, quale risoluzione dell’immagine visualizzare nel proprio browser. I file JPEG 2000 consentono di racchiudere in un unico documento l’anteprima, la bassa, la media e l’alta risoluzione di una stessa immagine, senza però moltiplicare proporzionalmente il peso del file. Per concludere, vediamo un elenco delle principali caratteristiche innovative previste dallo standard: • supporto per differenti modalità e spazi-colore (immagini a due toni, in scala di grigi, a 256 colori, a milioni di colori, in standard RGB, PhotoYCC, CIELAB, CMYK); • supporto per differenti schemi di compressione, adattabili in base alle esigenze; • standard aperto a successive implementazioni legate al sorgere di nuove necessità; • supporto per l’inclusione di un’illimitata quantità di metadati nello spazio di intestazione del file; • algoritmi allo stato dell’arte per la compressione distruttiva e non distruttiva delle immagini, con un risparmio di spazio a parità di qualità, rispetto allo standard JPEG, dell’ordine del 20–30%; • supporto per immagini più grandi di 64000 64000 pixel, ovvero maggiori di 4 Gib; • supporto per la trasmissione dei dati in ambienti disturbati, per esempio attraverso la radiotelefonia mobile; • capacità di maneggiare indifferentemente sia le immagini naturali sia la grafica sintetizzata al computer; • supporto per la codifica di Regions Of Interest (ROI), cioè di zone ritenute più importanti e perciò salvate con una risoluzione maggiore di quella usata per il resto dell’immagine.

191

192

M. Coriasco et al.

Fig. 6.12 L’immagine originale è stata fortemente compressa con JPEG 2000 e JPEG a un fattore di compressione simile; notare la forte presenza di artefatti nella versione JPEG, totalmente assenti nella versione JPEG 2000

Per poter iniziare da subito a provare questo nuovo standard, è possibile utilizzare un visualizzatore di immagini gratuito, scaricabile da internet sul sito http://www.irfanview.com, e provare a comprimere fortemente le immagini per vedere le capacità di ricostruzione di questo formato. Nella Figura 6.12 si può vedere la differenza tra due immagini fortemente compresse, l’una con JPEG 2000, l’altra con il normale JPEG, differenza che appare a tutto vantaggio della compressione di tipo wavelet. La corrispettiva immagine prodotta con JPEG 2000 (1:100 rispetto all’originale) mostra, a paragone con JPEG e a parità di fattore di compressione, un degrado molto minore rispetto all’originale e l’assenza del fastidioso fenomeno del blocking.

6.4.5 Lo standard di formato PNG

L’acronimo PNG deriva da Portable Network Graphics, ed è facile perciò intuire che questo formato trova la sua maggior applicazione nella diffusione via rete delle immagini. Il progetto nasce a seguito dell’introduzione del brevetto sull’algoritmo LZW, che costruisce un dizionario delle sequenze codificate, utilizzato all’interno del formato GIF, altro formato nativamente pensato per la trasmissione delle immagini. PNG nasce quindi in contrapposizione a GIF, come un formato grafico compresso e allo stesso tempo del tutto gratuito.

6 La memorizzazione delle immagini digitali

Analizziamo, dunque, i punti di forza di questo formato: • compressione: PNG utilizza metodi di compressione non distruttiva. L’algoritmo utilizzato per la compressione è lo zlib, una variante dell’algoritmo LZ77, sviluppato per la parte di compressione da Jean-loup Gailly e per quella di decompressione da Mark Adler. Questo algoritmo ricerca all’interno dell’immagine degli insiemi ripetitivi di pixel e su essi opera una codifica entropica; tanto più è sofisticata tale ricerca, tanto più sarà possibile ottenere alti fattori di compressione; • controllo di errore: PNG dispone di un sistema chiamato Cyclic Redundancy Check a 32 bit (CRC-32), che associa valori di controllo a ogni blocco di dati ed è in grado di rilevare immediatamente qualsiasi alterazione delle informazioni salvate o trasmesse; • supporto per milioni di colori: le immagini PNG non sono limitate a un massimo di 256 colori come accade per i file GIF, ma supportano anche la modalità RGB. Non permette al momento la modalità CMYK, anche se è prevista come futura estensione; • canali alfa: mentre GIF supporta una trasparenza basata sul keying (tutti i pixel aventi uno specifico colore sono trasparenti), PNG permette, grazie all’uso dei cosiddetti canali alfa, la possibilità di una trasparenza variabile su 254 livelli di opacità per ciascun pixel componente l’immagine. L’unico difetto di questo formato è che non è prevista la possibilità di memorizzare all’interno dello stesso file più di una immagine.

6.5 La trasmissione delle immagini digitali La trasmissione delle immagini digitali nelle applicazioni non critiche, avviene utilizzando i formati che abbiamo descritto in questo capitolo; siamo ormai abituati a ricevere nei messaggi di posta elettronica immagini provenienti della fotocamera digitale dell’amico o, più semplicemente, ottenute navigando sui siti internet che propongano uno stile graficamente accattivante. Discernere su quali formati siano in assoluto i migliori è difficile, poiché ognuno di essi rappresenta un insieme di scelte tecnologiche che consentono di ottimizzare alcuni parametri e nel contempo di tralasciarne altri. Rimane allora la possibilità di effettuare una scelta guidata dalla conoscenza di ciò che si trova dietro a una delle tante sigle che abbiamo visto, e provare a cercare il formato che meglio si adatta alle nostre esigenze.

6.5.1 La sicurezza delle immagini: le tecniche di watermarking

Abbiamo esplorato come l’informazione digitale sia versatile e consenta un gran numero di elaborazioni numeriche che modificano il segnale originale per consentire una migliore interpretazione diagnostica. Allo stesso modo si può operare in modo fraudo-

193

194

M. Coriasco et al.

lento, alterando degli esami diagnostici, ad esempio sovrapponendo opportunamente una frattura ossea a un osso sano per poter incassare un premio assicurativo. Questa operazione, che è difficile da realizzare con esami radiologici tradizionali, è invece molto più semplice con un’immagine digitale, laddove la modificazione dei pixel, è relativamente semplice, vista anche l’ampia diffusione di software per l’elaborazione di immagini. È chiaro che si rende necessario poter disporre di strumenti che consentano di mettere in sicurezza le immagini digitali, cioè assicurare che non sia possibile alcuna alterazione dei dati. Dovremo essere in grado di garantire che la diagnosi sia condotta sull’immagine originale priva di qualsiasi artefatto creato durante il trattamento dell’informazione o introdotto fraudolentemente. Per garantire l’integrità delle immagini è necessario introdurre un metodo di autenticazione che modifica la forma dei dati originali in modo da poterli recuperare nella loro configurazione originale. Senza entrare nei dettagli tecnici, l’idea è di avere a disposizione una tecnologia che consenta di conglobare dati strutturati all’interno dell’immagine, come una specie di filigrana invisibile, o comunque non percettibile all’occhio umano: il watermarking. Il watermarking consiste nell’introduzione di dati nascosti (detti marchio) all’interno dell’immagine detta “ospite”, rispettando una serie di vincoli dipendenti dalla specifica applicazione. Un esempio di vincolo è che un marchio non sia facilmente individuabile, in modo da non deteriorare la qualità dell’immagine ospite e, al tempo stesso, garantire la scoperta di eventuali alterazioni. Gli algoritmi di watermarking sono generalmente classificati in due tipi: reversibile o irreversibile. Nel caso di watermarking irreversibile l’applicazione del marchio non permette la ricostruzione dell’immagine originale; questa tecnica è impiegata quando è richiesto che il marchio rimanga permanentemente all’interno dell’immagine, come ad esempio nella tutela del copyright. Con il watermarking reversibile è garantita a priori la ricostruzione dell’immagine originale attraverso la rimozione del marchio dall’immagine ospite; in ambito medico è indispensabile che il processo diagnostico si avvalga dell’immagine originale, per cui la scelta dovrà cadere necessariamente su un algoritmo con questa caratteristica. Gli algoritmi di watermarking reversibile possono poi essere suddivisi in tre principali categorie in base al comportamento del watermarking in caso di alterazioni dell’immagine: • robusto: quando il marchio resiste alle più comuni operazioni e trasformazioni sui dati, per esempio il filtraggio convolutivo, la compressione con perdita di informazione, la sotto-quantizzazione, il prelievo di porzioni di immagini (cropping) e lo scalamento; • fragile: il marchio inserito viene deteriorato quando l’immagine ospite è anche solo minimamente modificata; in questo modo appare evidente che l’integrità dell’immagine è stata compromessa; queste proprietà rendono questo tipo di marchiatura utile nei processi di autenticazione e verifica di integrità, come richiesto nella diagnostica per immagini; • semifragile: il marchio può sopravvivere a un procedimento di leggera modifica come può essere esempio una compressione JPEG.

6 La memorizzazione delle immagini digitali

Fig. 6.13 Schema di applicazione e utilizzo del watermarking. Nelle immagini il marchio è stato volutamente enfatizzato per scopi didattici, poiché nella realtà un buon marchio tipicamente non è visibile a occhio nudo. Lasciamo al lettore il compito di analizzare l’immagine trasmessa (d) alla ricerca della modifica fraudolenta introdotta nel radiogramma

Gli algoritmi di watermarking operano sia nel dominio spaziale, spettrale o ibrido quando entrambi i primi due vengano utilizzati. Operando nel dominio spaziale, l’applicazione del marchio avviene modificando direttamente i valori dei singoli pixel, ad esempio alterando i livelli di luminosità o di colore. Nel dominio spettrale l’inserimento del marchio potrà avvenire tramite trasformazioni lineari quali la trasformata coseno discreta (DCT), la trasformata wavelet (DWT), la trasformata discreta di Fourier (DFT), applicando opportune modificazioni ai valori degli spettri componenti l’immagine originale. Nella Figura 6.13 è descritto lo schema concettuale di applicazione e utilizzo del watermarking. Alla luce di quanto esposto possiamo identificare i vincoli più importanti e utili per la valutazione di un algoritmo di marcatura informatica per immagini in ambito medico: • recupero dell’immagine originale (vincolo di reversibilità); • inserimento di un marchio impercettibile anche all’utente esperto, come ad esempio il medico refertatore (vincolo di invisibilità del marchio); • fragilità del marchio (vincolo di verifica di integrità); • localizzazione delle zone dell’immagine su cui siano stati effettuati dei ritocchi (vincolo di verifica di dolo nella modifica dell’immagine). Dal punto di vista pratico, gli attuali algoritmi di watermarking non sono però in grado di soddisfare tutti i vincoli che abbiamo espresso e che ragionevolmente possiamo

195

196

M. Coriasco et al.

ritenere come indispensabili in un contesto di immagini medicali. Per ovviare a questa insufficienza, a integrazione del watermarking dell’immagine si utilizza la firma digitale come parte integrante del marchio, con l’intento di rendere matematicamente difficile l’alterazione fraudolenta del marchio stesso.

6.6 Considerazioni finali La destinazione finale delle immagini è la loro memorizzazione su un supporto, per consentirne l’archiviazione o la successiva trasmissione. Le immagini richiedono elevate quantità di memoria nel loro formato nativo o raw, per cui sono state sviluppate tecniche e metodi per ridurre la dimensione dei dati necessari alla loro descrizione e memorizzazione; tali tecniche prendono il nome di compressione. Gli algoritmi di compressione si dividono in due grosse famiglie, quelli che consentono di recuperare integralmente l’informazione originaria, detti lossless, e quelli che ammettono una certa perdita di informazione, a favore di un fattore di compressione più elevato, detti lossy. Tra gli algoritmi più efficaci di compressione, troviamo la compressione entropica, ovvero l’algoritmo di codifica di Huffman, che è l’algoritmo a maggior efficienza che si possa ottenere. Tra gli algoritmi che fanno affidamento su un dominio trasformato per comprimere l’informazione, abbiamo preso in considerazione JPEG e JPEG 2000, analizzando gli algoritmi nelle loro componenti fondamentali, senza dimenticare una breve analisi del formato di immagini in medicina per eccellenza, lo standard DICOM. Per garantire l’integrità delle immagini digitali sia in fase di memorizzazione che di trasmissione, può essere utile introdurre il watermarking delle immagini, una sorta di filigrana invisibile che pervade l’immagine e che consente di verificare se una immagine è stata alterata dopo l’introduzione del marchio. Il watermarking può essere di tipo irreversibile o reversibile, e quest’ultimo può essere robusto, semifragile o fragile, a seconda delle caratteristiche dell’algoritmo che realizza l’inserimento del marchio nell’immagine ospite. Infine, il watermarking può operare sia nel dominio spaziale, che in quello spettrale, alterando l’immagine originale in modo controllato per ottenere lo scopo prefissato, a seconda di quali vincoli siano ritenuti indispensabili nella specifica applicazione.

Sitografia http://medical.nema.org http://www.ijg.org http://www.openjpeg.org http://www.libpng.org/pub/png/

ESERCIZI

Esercizi 1) Nel caso di tecniche di compressione lossy, l’immagine ricostruita è: a) completamente diversa dall’originale b) di dimensioni poco più piccole dell’originale c) simile all’originale d) esattamente uguale all’originale 2) Per comprimere un’immagine senza perdita di informazione si può: a) associare a ciascun pixel un byte b) codificare i pixel con codici di lunghezza variabile in funzione della loro intensità c) sottrarre ogni pixel a quello di massima luminosità d) sottrarre l’immagine originale a quella traslata di un pixel e riferirsi poi alla prima colonna dell’originale 3) Quale fra i seguenti non è un formato di memorizzazione? a) TIFF b) BMP c) PPN d) JPEG 4) DCT è l’acronimo di: a) Device Control Transmitter b) Dot Control Technology c) Discrete Cosine Tansform d) Discriminant Cosine Transform 5) I metodi di compressione irreversibili: a) si applicano quando non sia importante che l’immagine ricostruita sia esattamente uguale all’originale b) si applicano solo alle immagini industriali c) non si applicano mai nella computer graphics d) si applicano solo a immagini semplici 6) Nel caso di tecniche di compressione senza perdita di informazione, l’immagine ricostruita è: a) simile all’originale b) di dimensioni poco più piccole dell’originale c) completamente diversa dall’originale d) esattamente uguale all’originale 7) La codifica Run Lenght Encode si presta bene per: a) immagini grafiche come i disegni b) immagini con istogramma piatto

197

198

ESERCIZI

c) immagini fotografiche d) eliminare i pixel il cui livello di luminanza sia sotto una determinata soglia 8) Il PSNR valuta: a) la perdita di informazione dovuta alla compressione b) la bontà assoluta della qualità della compressione di un’immagine c) la qualità di un’immagine compressa rispetto all’originale d) il guadagno di informazione dovuto alla compressione dell’immagine 9) La codifica di Huffman è un metodo per: a) quantificare l’informazione presente in un’immagine b) comprimere dati con una codifica a lunghezza variabile c) calcolare il massimo fattore di compressione di un’immagine d) determinare il massimo numero di livelli di grigio di un’immagine 10) Lo standard DICOM ha come obiettivo: a) standardizzare tutti gli aspetti dell’acquisizione, trattamento e trasmissione delle immagini digitali b) standardizzare le immagini medicali c) veicolare le informazioni sui pazienti sulle reti ospedaliere d) standardizzare le immagini medicali con perdita di informazione 11) Il formato JPEG utilizza: a) lo spazio trasformato per ottimizzare l’algoritmo di compressione b) la differenza tra blocchi di sottoimmagini per aumentare il fattore di compressione c) solo colori naturali per la codifica dei pixel d) l’informazione binaria dei pixel per la codifica differenziale 12) Quale delle due immagini evidenzia artefatti tipici della compressione?

13) Il watermarking è una tecnica di: a) sviluppo ad acqua delle pellicole radiografiche b) marchiatura delle immagini e codifica di informazioni al loro interno

ESERCIZI

c) trasferimento dei dati su una linea telematica d) strutturazione delle informazioni diagnostiche all’interno di immagini 14) Le tecniche di watermarking utilizzate per applicazioni mediche devono essere preferibilmente di tipo: a) semifragile e irreversibile b) fragile e reversibile c) robusto e reversibile d) fragile e irreversibile 15) La compressione delle immagini è utile a: a) migliorare la qualità visiva delle immagini b) ridurre il numero di colori/livelli di grigio presenti nell’immagine c) ridurre le quantità di dati necessari alla memorizzazione dell’immagine senza perdita di informazione d) ridurre le quantità di dati necessari alla memorizzazione dell’immagine eventualmente ammettendo perdita di informazione 16) Il fattore di compressione di un’immagine è: a) il rapporto tra la quantità di informazione e il numero di bit necessari a rappresentare un singolo pixel b) il rapporto tra dimensione grezza dell’immagine e la dimensione dei dati ottenuti tramite un algoritmo di compressione c) la percentuale di guadagno su ciascun pixel ottenuto tramite la compressione dei livelli di grigio d) il numero di pixel risparmiati applicando la compressione delle immagini 17) Quali tra i seguenti approcci non viene solitamente utilizzato da algoritmi di watermarking? a) nel dominio trasformato b) nel dominio spaziale c) predittivo d) a correlazione 18) In base al tipo di applicazione è possibile contestualizzare le tecniche di watermarking nel seguente modo: a) watermarking robusto per applicazioni di tutela del copyright e watermarking fragile per verifica di integrità b) watermarking robusto per applicazioni di verifica di integrità e watermarking fragile per tutela del copyright c) watermarking fragile per applicazioni di verifica di integrità e watermarking robusto per tutela della privacy d) watermarking fragile per applicazioni di tutela del copyright e watermarking robusto per verifica della privacy

199

200

ESERCIZI

19) La compressione JPEG 2000 consente di avere nello stesso file: a) più immagini di una stessa sequenza b) la codifica di diversi colori contemporaneamente c) la stessa immagine a più risoluzioni contemporaneamente d) le immagini e i dati del paziente 20) Un sistema PACS consente di: a) archiviare immagini provenienti da sorgenti differenti in modo confuso e inefficiente b) consente la gestione dell’archiviazione e quindi il successivo reperimento delle immagini c) elaborare le immagini provenienti da un sistema TAC d) applicare marchiature alle immagini in ingresso

Soluzioni esercizi

CAPITOLO 1

1) c 2) b 3) c 4) b 5) d 6) b 7) a 8) c 9) b 10) d 11) a 12) a 13) a 14) a

15) 16) 17) 18) 19) 20) 21) 22) 23) 24) 25) 26) 27) 28)

c a c b a c b a a 465 4000 132 d c

CAPITOLO 2 1) a 2) b 3) b 4) a 5) a 6) c 7) b

8) c 9) c 10) c 11) a 12) c 13) a 14) c

29) 30) 31) 32) 33) 34) 35) 36) 37) 38) 39) 40)

a aliasing e d a c a c a a b c

15) 16) 17) 18) 19) 20)

d b a c b 2–1–3

L’immagine digitale in diagnostica per immagini. Mario Coriasco, Osvaldo Rampado, Nello Balossino, Sergio Rabellino DOI: 10.1007/978-88-470-5364-9 © Springer-Verlag Italia 2013

201

202

M. Coriasco et al.

CAPITOLO 3

1) b 2) c 3) b 4) c 5) b 6) d 7) c 8) a 9) d 10) 1024*768*3*25*13 11) 1024*768*3 12) a 13) c 14) b

17

15) 1 immagine 1572864 byte capacità: 1400000000: num im= 890 16 a) 12 bit 16 b) 2 byte 17) vedi figura sotto 18) c 19) d 20) c 21) d 22) d 23 a) 2667 3333 23 b) 42 m 23 c) 4252 5669 24) 38,4 cm

25) 26) 27) 28) 29) 30) 31) 32) 33) 34) 35) 36) 37) 38) 39) 40)

97 c b c d a c b c d c b a d d b

Soluzioni esercizi

203

CAPITOLO 4

1) a 2) c 3) c 4) b 5) c 6) b 7) a 13) b 14) a

28

29

15) 16) 18) 19) 21) 22) 30) 31) 32)

c b b b b b b a b

33) 34) 35) 36) 37) 38) 39)

b a b a c b c

204

M. Coriasco et al.

CAPITOLO 5

1) 2) 3) 4)

b a d a

CAPITOLO 6 1) c 2) b 3) c 4) c 5) a 6) d 7) a

5) 6) 7) 8)

c d b a

8) c 9) b 10) a 11) a 12) a 13) b 14) b

9) b 10) a

15) 16) 17) 18) 19) 20)

d b c a c b

Indice analitico

A

AHE (Adaptive Histogram Equalization), vedi Istogramma Addizione, 107 Aliasing, 17 Analogico grandezza, 5 strumenti di misura, 9 Apertura, operatore complesso, 122 Artefatti, 188 ASCII, 30 B

Background, 110 Bad pixel, 154 Bicubico, 79 Bilineare, 79 Binario, 29, 30 Bit, 26 Blurring, 116 Bordo, vedi anche Contorno edge detection, 113 edge extraction, 113 Butterworth, 135 Byte, 29 multipli, 32 C

Campionamento, 12 frequenza di, 12

Lasco, 74 periodo di, 12 teorema del, 16 Chiusura, operatore complesso, 122 CISC, 28 CLAHE (Contrast Limited Adaptive Histogram Equalization), vedi Istogramma CMYK, 73 Codice identificativo, 175 Coefficiente di quantizzazione, 188 Colore, 61 brillantezza, 61 luminosità, 62 lunghezza d’onda dominante, 62 purezza, 62 saturazione, 61 sistema di colori additivo, 62 sistema di colori sottrattivo, 62 tinta, 61 Compressione dei dati, 171 fattore di compressione, 172, 174, 176 LossLess, 172, 174 Lossy, 172, 175 massima compressione, 177 metodo di compressione, 177 metodo di compressione entropico, 175 Contorno, 113 estrazione dei contorni, 114

L’immagine digitale in diagnostica per immagini. Mario Coriasco, Osvaldo Rampado, Nello Balossino, Sergio Rabellino DOI: 10.1007/978-88-470-5364-9 © Springer-Verlag Italia 2013

205

206

M. Coriasco et al.

Contrasto, 84, 85, 96, 99, 104, 127 contrasto simultaneo, 57 rapporto contrasto rumore, 84 sensibilità al contrasto, 56, 57 soglia di contrasto, 56 Convoluzione, 116 maschere, 111

rumore, 96 Equalizzazione, 126 Erosione, 121 apertura, 122 chiusura, 122 operatore di base, 121 Esposizione, 104

D

F

DCT, 187 DDL, Digital Driving Levels, 78 Decompressione dei dati, 172 Decorrelazione, 190 Degrado, 140 DICOM, 180 GSDF, 78 Digitale strumento di misura, 9 Digital image processing, 95 Dilatazione, operatore di base, 121 Dimensione, 169 Discretizzazione passo di, 22 spaziale, 69, 70 Dithering, 175 Divisione, 107, 109 Dominio trasformato, 132, 177 DPI, 70 DQE, 85 DWT (Discrete Wavelet Transform), 189

Falsi colori, 74 Falsi contorni, 75 Filtraggio, 135 a media locale, 116 a media mobile, 116 a media ponderata, 116 Filtro esponenziale, 136 ideale, 134 mediano, 117 rumori di tipo impulsivo, 117 sale e pepe, 117 valore mediano, 117 passa-alto, 132 passa-basso, 132 trapezoidale, 137 Foreground, 110 Formati di file per immagini digitali ACR-NEMA, 179 ANALYZE, 179 BMP, 178 DEFF, 180 DICOM/3, 179 DNG, 178 GIF, 178 INTERFILE, 179 JPEG, 178 JPEG2000, 179 PAPYRUS, 179 PNG, 179 QSH, 179 TIFF, 178 Formato, 170 Fourier combinazione lineare di immagini, 131

E

Edge detection, 113 extraction, 113 Eidoslab, 142, 143 Elaborazione, 95 contrasto, 96 globale, 96 ingrandimento, 96 locale, 96 nel dominio trasformato, 96 nitidezza, 96 puntuale, 96 ripristino di qualità, 96, 139

Indice analitico

DFT, Discrete Fourier Transform, 129 Fast Fourier Transform, 133 Half Fourier, 132 simmetria, 132 simmetria centrale, 132 spettro di, 17 teorema di, 12, 128 trasformata di, 15, 129, 130 Frazione di Weber, 56 Frequenza, 130 di taglio, 132, 136 spaziale, 58, 128 dominio delle frequenze, 128 effetto Mach, 59 livello di dettaglio, 59

207

K

Kirsh, operatore di, 113 L

Hard copy, 77 Header, 171

Laplaciano, operatore, 114 Look Up Table (LUT), 99, 101, 104 a gradini, 102 curva di stretching, 99 curva sensitometrica, 102 gamma, 105 invertita, 104 logaritmica, 130 sensitometrica inversa, 104 sigmoide, 102 trasformazioni logaritmiche, 104 trasformazione esponenziale, 104 window, 101 windowing, 100 Luce, 41 flusso luminoso, 44 intensità luminosa, 43 livelli di grigio, 61 luminanza, 46

I

M

Illusioni visive, 47 Immagine, 41 Immagini medicali, 180 Integrità delle immagini, 194 Istogramma AHE (Adaptive Histogram Equalization), 127 CLAHE (Contrast Limited Adaptive Histogram Equalization), 127 dei livelli, 75 dei livelli di luminanza, 122 equalizzazione dell’istogramma, 123 funzione di trasformazione, 124 GHE (Global Histogram Equalization), 127 MAHE (Multiscale Adaptive Histogram Equalization), 128 miglioramento del contrasto, 122 SHAHE (SHarpened Adaptive Histogram Equalization), 128

MAHE (Multiscale Adaptive Histogram Equalization), vedi Istogramma Mappa delle frequenze, 139 Marchio, 194 Matching, 121 posizioni, 121 Mediano, filtro, 117 Modalità raw, 169 Moltiplicazione, 107, 109 Morfologia, 120 elemento strutturante, 121 Morfologici, operatori, 120 MTF, 82

G

GHE (Global Histogram Equalization), vedi Istogramma H

N

Nearest neighbour, 79 O

Occhio, 44 angolo visivo, 54

208

M. Coriasco et al.

bastoncelli, 54 coni, 54 distanza focale, 53 fuoco, 53 macchia cieca, 54 Onda frequenza, 43 lunghezza d’onda, 43 periodo, 43 Operatore laplaciano, 114 Operazioni logiche, 110 Operazioni algebriche tra immagini, 107 P

PACS (Picture Archiving and Communication System), 181 Pixel, 69 4-connettività, 97 8-connettività, 97 Adiacente, 97 cammino, 97 connesso, 97 city-block, 98 componenti connesse, 98 criterio di similarità, 97 funzione distanza, 98 m-connettività, 97 profondità del, 74 regioni di interesse, 99 Prewitt, operatore di, 113 Principio di indeterminazione, 46 indeterminazione geometrica, 49 indeterminazione radiale, 49 Processo di unificazione del campo percettivo buona forma, 51 chiusura, 51 continuità di direzione, 50 esperienza passata, 51 pregnanza, 51 somiglianza, 49 uguaglianza cromatica, 49 vicinanza, 49 Pseudo colori, tecnica degli, 107 PSNR (peak signal-to-noise ratio), 172

Q

Quadrato di Mach, 47 Quantizzazione Lasca, 75 R

Rebinning, 161 Replicazione, 79 RGB, 73 Riflettanza, 48, 49 RISC, 28 Risoluzione spaziale, 81 Rumore, 83 distribuzione del, 83 spettro del, 83 S

Segnale, 2 continuo, 3 discreto, 3 Sfocatura, 116 SHAHE (SHarpened Adaptive Histogram Equalization), vedi Istogramma Sharpening, 120 Sistema, 2 di acquisizione, 4 di elaborazione, 4 di distribuzione, 4 Sistema visivo, 46 Smoothing, 111, 116 Sobel, operatore di, 113 Soft copy, 77 Sottrazione, 107 Spazio K, 132 Spike, 139 Supporto di memorizzazione, 170 T

Trasduttore, 11 Trasmissione delle immagini digitali, 193 U

Unique identifier, 181 Unsharp masking, 119

Indice analitico

209

V

Y

Visione, 46 Von Neumann, architettura di, 25

YUV, 73, 186 Z

W

Watermarking, 194 irreversibile, 194 reversibile, 194 fragile, 194 robusto, 194 semifragile, 194 Windowing, 100

Zero order hold, 79 Zoom, algoritmi, 79