Costruzioni Marittime - Unige [PDF]

  • 0 0 0
  • Gefällt Ihnen dieses papier und der download? Sie können Ihre eigene PDF-Datei in wenigen Minuten kostenlos online veröffentlichen! Anmelden
Datei wird geladen, bitte warten...
Zitiervorschau

LEZIONE 1: Il moto ondoso – Nozioni di base Argomenti: Idraulica di base onde di mare, come caratterizzarle, cosa succede quando si propagano verso costa, caratterizzazione delle onde di progetto a partire dai dati onda tramite modelli statistici.

Generazione del moto ondoso: Noi ovviamente ci focalizziamo sul M.Mediterraneo, un bacino chiuso dove vi sono molti ostacoli, molte isole. Quindi le onde si formano principalmente per effetto del vento (smottamenti del fondale ad esempio sono trascurabili), sono quelle che ci interessano. A partire da una superficie del mare perturbata (in cui si verifica un’ondulazione), il vento che soffia da sx verso dx incontra un ostacolo: non è in grado di iniettare energia in modo uniforme sullo specchio acqueo che incontra, si forma quindi una circolazione (shelter circulation) che esercita forza sul punto più basso dell’onda (a valle del cavo dell’onda) e spinge in una zona di alta pressione che fa generare una zona di bassa pressione a monte del cavo d’onda. Questo tipo di meccanismo si autoalimenta e fa sì che lo sbilanciamento della pressione a monte e a valle del cavo dell’onda porta la parte con la L ad essere sospinta verso l’alto mentre quella con la H ad essere spinta verso il basso. Se questa situazione permane nel tempo l’onda si sposta e modifica le sue caratteristiche (innalzamento della cresta, spostamento dell’onda), una parte dell’onda si alza un’altra si abbassa contemporaneamente allo spostamento generalizzato.

L’azione del vento è quella che ci interessa ed è costituita da tre parametri: - Specchio d’acqua ove può esercitare la sua azione (fetch): x - Velocità del vento (intensità con cui soffia sullo specchio acqueo): U - Durata dell’azione (per quanto tempo è in grado di trasformare energia): t

Nella zona di fetch si hanno tante piccole increspature che interagiscono fra loro in modo disordinato, con interazioni non lineari, il profilo che risulta è pertanto caotico. Se x e U sono sufficientemente elevati (vento esercita la sua azione per un periodo sufficiente di tempo e per un’estesa porzione di spazio) dalla fase di fetch si iniziano a

staccare dei treni d’onda, onde cioè aventi la maggior lunghezza. Le onde più lunghe (quelle che hanno maggior periodo) sono quelle che viaggiano più a lungo e più velocemente. Il vento inietta energia al mare, genera tante piccole onde, le onde più corte trasferiscono energia a quelle più lunghe che “se le mangiano” e continuano a crescere di intensità e lunghezza, abbandonano la fase di generazione prima delle altre onde ed entrano nella cosiddetta fase di dispersione: la celerità di propagazione (che dipende dalla lunghezza) dipende dalla profondità. In questa zona le onde sono più ordinate e hanno altezza lunghezza e periodo definiti. Assumendo, per semplicità, la velocità del vento costante possiamo definire tre diversi regimi di generazione delle onde: -

Regime transitorio (duration limited)  limite di durata Regime stazionario (fetch limited)  limite di spazio Regime completamente sviluppato (fully developed sea)  moto ondoso sviluppato

Se noi ci mettiamo in un punto del mare e vogliamo caprie qual è l’onda che si sviluppa in virtù della durata del vento, vogliamo capire se l’onda che vediamo è quella massima che il vento ha generato, questo perché un’onda ha dei limiti fisici per i quali subentrano altri meccanismi, sono limiti di stabilità dell’altezza massima. L’onda raggiunge l’altezza massima se il vento può agire per una sufficiente durata e su una sufficiente estensione spaziale , si verifica quindi il regime completamente sviluppato:

se il vento non riesce ad agire sufficientemente a lungo da poter generare un’onda sufficientemente elevata il regime è transitorio:

¿ > g t cr U U se invece ci sono delle limitazioni spaziali nonostante il vento abbia una sufficiente forza il regime è stazionario, il limite è di natura spaziale. Questi limiti sono espressi tramite coefficienti adimensionali a seconda che la durata o il tempo siano fattori limitanti, il coefficiente limitato è quello che contiene il tempo ¿ , da confrontarsi con quello critico g t cr(dipendente da determinante condizioni di vento e dalla climatologia del tempo). In regime stazionario non abbiamo problemi di durata:

Diventa tuttavia limitante il fattore spaziale:

¿ ≤ g x cr x U Se il regime è completamente sviluppato non abbiamo quindi alcun limite di durata e di estensione spaziale del fetch, il vento è libero di creare l’altezza d’onda massima che dipende ovviamente da climatologia e il punto di mare che stiamo esaminando.

Nell’immagine vengono riportati i fetch di Genova. Da qui possiamo capire quando è lecito aspettarsi onde più o meno intense. Guardando ai tre parametri di prima possiamo avere un’idea dei fetch rispetto ai quali possiamo osservare le onde più violente e intense a seconda del punto in cui siamo. Per Genova i fetch più estesi (quelli con pochi ostacoli, senza isole o coste) sono diretti S-O (settore di libeccio). Convenzione Nautica per la direzione delle onde: la direzione si riferisce alla zona di provenienza delle onde e viene definita in senso orario a partire dalla direzione Nord. Onda di direzione 0°  da N a S Onda di direzione 90°  da E a O Onda di direzione 180°  da S a N Onda di direzione 270°  da O a E Per il paraggio di Genova i fetch più estesi sono quelli relativi al settore di libeccio con (direzioni superiori ai 180°) direzione di provenienza intorno ai 220°, si hanno anche paraggi estesi in corrispondenza dello scirocco, tuttavia vi sono “meno linee dritte” (in numero), settore poco esteso. Gli altri settori sono poco estesi e lo si vede bene dalla cartina, ci sono parecchi ostacoli che il vento incontra. Quindi per Genova guardando i fetch sappiamo che le onde più grandi arrivano da libeccio. E in effetti la diga foranea è orientata per intercettare le onde che arrivano da S – O! C’è anche una diga di sottoflutto per i venti provenienti da scirocco. Le onde di mare sono definite come wind waves (contenute nella zona di generazione del moto ondoso), le loro creste non sono definibili in maniera univoca. Esistono anche delle onde lunghe definite swell waves (onde lunghe), esse si sono staccate dalla zona di generazione (sono sempre generate dal vento) e si stanno propagando più velocemente verso riva e si riesce a identificare in maniera univoca cresta e cavo d’onda, il segnale è praticamente sinusoidale. Queste due onde traducono sostanzialmente lo sketch iniziale.

Grandezze fondamentali: waves parameters Si definiscono in relazione ad un’onda regolare (una swell wave sinusoidale), esse sono: 1. Ampiezza, a [m] massimo spostamento della superficie libera dal livello medio mare, ci dice la distanza di cresta o del cavo dal livello medio mare (linea tratteggiata) 2. Lunghezza d’onda, λ [m]  distanza fra due creste o cavi successivi

3. Altezza d’onda, H [m] il doppio dell’ampiezza 4. Periodo d’onda, T [s ]  distanza fra due creste o cavi in termini di tempo, intervallo di tempo che intercorre fra due creste o cavi 5. Profondità, h [m]  profondità del fondale influenza e modifica caratteristiche dell’onda nel corso della sua propagazione

D’ora in avanti parliamo di onde regolari (descritte tramite segnale sinusoidale), tipi di onde che approssimano bene le swell waves le quali hanno periodo elevato e maggiore impatto per le costruzioni, esso sono pertanto le tipologie di onde più pericolose. Si definiscono inoltre: - Numero d’onda: inverso della lunghezza d’onda a meno di 2 π

-

Frequenza angolare:

-

Profilo superficie libera: AL POSTo DI K VA MESSO X! DIPENDE SIA DALLO SPAZIO CHE DAL TEMPO

-

Potenziale di velocità: permette di definire le velocità indotta dal passaggio di un’onda al di sotto della superficie libera, derivando una volta infatti otteniamo la velocità euleriana al di sotto della superficie libera e derivando due volte otteniamo l’accelerazione euleriana (entrambe su tutta la colonna d’acqua).

Ovviamente si sta ragionando su due grandezze: -

Coordinata verticale dal fondale Coordinata orizzontale di quanto stiamo distanti dalla riva

Così facendo, è come se la nostra onda avesse spessore unitario. Una volta entrate nella zona di dispersione (quando assumono un profilo ordinato e regolare) in essa vige la relazione di dispersione che può essere espressa in due modi: - f (k , σ ):

-

f (λ): deep water, h/L > 1/2

A noi interessa la seconda relazione (è una relazione implicita! k dipende da L) da risolvere iterativamente, una volta noto il periodo di un’onda in virtù della profondità possiamo calcolare la lunghezza d’onda risultate . Il periodo, in questa trattazione, viene ritenuto un invariante, esso non cambia mai durante il percorso (l’altezza, la velocità di propagazione e la lunghezza però si). Nel caso di shallow water la relazione diventa:

Grandezze derivate: velocità, celerità, energia, pressioni -

Velocità di fase (celerità di un’onda):

-

Celerità di gruppo:

-

fino ad ora abbiamo fatto una semplificazione utile ma non attendibile . È evidente che le onde si generano e si scambiano energia in modo caotico, non lineare; nel momento in cui quelle più veloci lasciano la zona di propagazione lo fanno dove ci sono state delle perturbazioni precedenti (treni d’onda precedenti, transiti per altri fetches diversi…) non lo fanno nel deserto, ci sono interazioni al di fuori della zona di generazione. Questo porta a definire una celerità di gruppo: le onde più lunghe che incontrano altre onde lunghe di altre fetches si propagano come dei pacchetti d’onda composti da onde di diversa frequenza e ampiezza che si sovrappongono in qualche modo l’un l’altra. Il profilo risultante non è ben definito, esso si modifica nello spazio e nel tempo man mano che si sposta da sx. verso dx. I punti verdi sono nodi in cui l’elevazione della superficie dell’onda è la stessa del livello medio mare, sono di fatto i nodi che contengono al loro interno un pacchetto d’onde che si sta spostando con la celerità di gruppo, di fatto la celerità di gruppo è la velocità con cui si sta spostando il punto verde. Guardando le relazioni fra celerità e celerità di gruppo, si vede che quella della singola onda è sempre maggiore di quella del gruppo: una singola onda si sposta più velocemente del pacchetto di cui fa parte e con cui sta viaggiando. Il quadrato arancione si sposta più velocemente del singolo punto verde, lo abbandona, si sposta nel trova un altro e così via. La celerità di gruppo è importante perché si può associare ad una singola onda un contenuto energetico totale [N/m^2]. Esso può essere definito a partire da contenuto cinetico legato alla velocità) e potenziale (legato alla massa):

Figura 1: eq. 1

-

-

La densità dell’acqua nel caso del mare dipende dal mare in cui siamo, in prima approssimazione si può assumere circa a 1025 Kg/m^3. La celerità ci dice qual è il flusso medio di energia associato ad una cresta, quanto velocemente sta venendo trasportata l’energia di un’onda. Possiamo quindi definire il flusso:

L’energia di un’onda si propaga alla velocità del gruppo all’interno del quale la nostra onda di riferimento si sta spostando, dal momento che nella formula è presente la celerità di gruppo l’energia di un’onda si propaga con la velocità del gruppo! Per quanto riguarda le pressioni esercitate, si individua un contributo legato alla pressione idrostatica ps (legato all’acqua ferma, idraulica) e un contributo idrodinamico legato al passaggio dell’onda pd . La loro somma fornisce la pressione totale esercitata da un’onda regolare.

Il contributo alla risultante della componente dinamica è più grande o più piccolo di quella idrostatica a seconda del passaggio del cavo (minore) o della cresta (maggiore), ovviamente ps =0 quando siamo sulla superficie libera. Sono presenti delle approssimazioni asintotiche per semplificare le formule viste fino ad ora, esse nascono dal fatto che le funzioni iperboliche possono essere approssimate al loro argomento o ad 1 a seconda del valore degli argomenti stessi. Queste due condizioni si realizzano in due casi: -

Shallow water (basse profondità): quando h/L < 0,05 (lunghezza di un’onda diviso la profondità alla quale su trova) non è più vero che la singola onda viaggia più veloce del gruppo, la singola onda ha la stessa velocità del gruppo, non dipende dal periodo. o Celerità non dipende più dal periodo ! o Celerità di gruppo = celerità di propagazione della singola onda o Questo tipo di onde interagiscono con il fondale e modificano le loro caratteristiche

-

Deep Water (profondità infinita, offshore): quando h/L > 0,5 o L dipende dal periodo, più grande è T più lunga è un’onda e più velocemente viaggia o Celerità gruppo < celerità onda singola o A profondità ifnitia quella del gruppo la celeritò di dgrppo è la metà della singola o Questo tipo di onde si propagano senza sentire l’azione del fondale

Onde regolari: la propagazione I limiti di profondità bassa e infinita non sono assoluti ma relativi, ambedue i limiti dipendono sia dalla lunghezza di un’onda che dalla profondità: per onde più lunghe la condizione di deep water di si troverà a profondità maggiore rispetto ad onde più corte. Vediamo ora che succede alle onde quando si propagano dal largo (profondità infinita) verso la costa (bassa profondità), subentrano meccanismi legati alla variazione di batimetria che modificano le caratteristiche d’onda. Nell’immagine viene presentato il golfo di Napoli che dà un’idea di come la batimetria possa variare in modo repentino, quindi parlare di onda regolare è relativo perché in natura vanno considerate tre dimensioni.

Noi non vedremo modelli 3-D che richiedono modelli numerici più complessi, operiamo quindi tramite un primo ordine di approssimazione (= il segnale è sinusoidale) in cui cresta e minimo sono uguali in forma e in modulo di elevazione. Per questo tipo di processi individuiamo quindi i principali processi trasformativi del moto ondoso, essi si suddividono in due categorie: -

Processi trasformativi non dissipativi, per i quali l’energia dell’onda rimane invariata ( ΔE=0), essi si suddividono in: o Shoaling o Rifrazione o Riflessione o Diffrazione

-

Processi trasformativi dissipativi, per i quali l’onda libera la propria energia e diventa instabile, si rompe, essi si suddividono in: o Frangiento o Ran-up o Attrito al fondo o Etc.

Shoaling:

Traduce la costanza del flusso di energia dei processi non dissipativi tra sezioni poste a profondità differenti. In un piano 2-D la presenza di una batimetria decrescente dal largo verso riva fa variare le caratteristiche dell’onda.

Quando quantifichiamo l’effetto dello shoaling sulle onde valutiamo un coefficiente che ci dice come varia l’altezza d’onda di due sezioni poste a profondità differente; prese due sezioni (una al largo e una a riva), il flusso dell’energia associato all’onda, definito come il contenuto energetico di un’onda per la celerità del gruppo all’interno della quale l’onda si propaga, è costante (i processi non sono dissipativi). Quindi, matematicamente, si può eguagliare il flusso delle due profondità:

Per convenzione si impiega il pedice O (offshore) per indicare sezioni poste a profondità infinita. Si è visto come si calcola il flusso in base alla eq.1, le grandezze che variano nelle due sezioni sono: -

Celerità di gruppo Altezza

Calcoliamo quindi un coefficiente di shoaling K s eliminando le costanti che si hanno nell’uguaglianza dei due flussi

A partire dalla definizione di celerità di gruppo si ottiene facendo la radice quadrata del rapporto fra la celerità di gruppo a profondità infinta e quella a profondità intermedia:

Possiamo quindi valutare il coefficiente in funzione della lunghezza d’onda λ (che è funzione del periodo) ma non dell’altezza. Nota la celerità di gruppo a profondità infinita possiamo calcolare quella ad una profondità intermedia e successivamente il coefficiente che ci interessa e quindi l’altezza dell’onda risultante a una profondità intermedia è pari a K s moltiplicato per l’altezza d’onda a profondità infinita. Nell’immagine sottostante viene rappresentato il valore del coefficiente K s in relazione ad un parametro adimensionale molto utilizzato in ingegneria marittima.

Si vede che esso è pari ad 1 per profondità molto elevate (significa che non abbiamo variazioni nell’altezza d’onda), in seguito decresce e assume un minimo relativo, questo minimo relativo ha però spiegazione matematica dovuta alla natura delle funzioni iperboliche e al bilancio dell’energia e non a fenomeni fisici studiati . Man mano che ci spostiamo verso riva (verso sinistra ove il coefficiente adimensionale è praticamente nullo), qui abbiamo un coefficiente di shoaling che raggiunge un valore addirittura maggiore di due! L’altezza d’onda quindi raddoppia passando da profondità infinite a profondità basse? No! L’altezza d’onda certamente incrementa però intervengono altri fattori che contrastano l’aumento dell’altezza dell’onda e di fatto la impediscono. Una spiegazione intuitiva di questo coefficiente che rappresenta la conservazione dell’energia si può vedere nella figura viola, una massa d’acqua che conserva la sua energia si frange su un volume sempre maggiore, essa si sta schiacciando su un volume maggiore: è come se schiacciassi la funzione coseno mantenendo il suo periodo inalterato, l’unico modo per cui questo possa funzionare è che vi sia un innalzamento di una quota della cresta (quindi dell’altezza dell’onda). Lo shoaling ha quindi sempre l’effetto di indurre un aumento dell’altezza della lunghezza d’onda. Rifrazione: Traduce la costanza del flusso di energia fra due ortogonali d’onda. A differenza dello shoaling non abbiamo due sezioni verticali, pertanto ci mettiamo in una vista dall’alto. Gli ortogonali d’onda sono delle linee perpendicolari in ogni punto al fronte d’onda (creste dell’onda). Tra due ortogonali non vi è dissipazione di energia, fisicamente significa che i fronti di un’onda tendono a disporsi parallelamente alla linea di riva o, viceversa, l’ortogonale di un’onda tende a disporsi perpendicolarmente ala linea di riva.

Si è visto che la celerità diminuisce man mano che essa ci si avvicina alla riva, nell’immagine soprastante il punto P0 ha una profondità minore rispetto al punto P1 (non presente in immagine ma definito come intersezione fra il fronte d’onda e la perpendicolare OB), il punto P1 ha pertanto velocità maggiore, sta viaggiando a velocità maggiore. Lungo

un fronte d’onda ci sono punti che hanno velocità differenti, il fronte d’onda pertanto tende a ruotare e a disporsi parallelamente alla riva. Questo si traduce in una legge mutuata dall’ottica (legge di Snell):

Ove b 0 rappresenta la distanza fra due ortogonali a profondità infinita e b rappresenta invece la distanza fra due ortogonali a profondità intermedia. Si può quindi definire un coefficiente di rifrazione, K r :

Ove per α si intende l’angolo di direzione di propagazione di un’onda, esso varia in funzione della profondità. Per ogni profondità abbiamo un valore di α differente, quindi l’altezza d’onda risultante diventa pari all’altezza d’onda a profondità infinita moltiplicata per K r e K s :

Se lo shoaling induce sempre un aumento dell’altezza d’onda questo non è vero anche per la rifrazione perché, osservando una costa dall’alto e nel caso di batimetria regolare, le isobate (linee curve continue nell’immagine) seguono il profilo della costa emersa. Se si hanno onde parallele al profilo di riva questo fa si che gli ortogonali convergono, viceversa nella baia è evidente che i fronti d’onda divergono, questo dipende esclusivamente dalla disposizione delle isobate investite dall’onda che si sta propagando (inizialmente ipotizzata orizzontale in alto). La rifrazione quindi, nel caso di convergenza dei fronti d’onda, genera un aumento dell’altezza dell’onda; viceversa, nella baia, quindi nel caso di divergenza dei fronti d’onda, l’altezza d’onda decresce.

Riflessione e Diffrazione: Si verificano quando le onde incontrano delle strutture, le vediamo un po’ alla veloce. Perché nella progettazione vera e propria vengono usati dei modelli di calcolo e non delle formule di pre-dimensionamento da usare a mano come vedremo. Inoltre, sono dinamiche complesse difficilmente riconducibili ad abachi o a formule parametriche, è una cosa un po’ desueta. Riferiamoci sempre al caso bidimensionale. La riflessione può essere totale o parziale, essa dipende dall’angolo di inclinazione verticale della parete rispetto al fondo e dalla ripidità dell’onda: è totale quando l’angolo della parete con l’orizzontale eguaglia o supera un valore critco. In questo caso l’abaco si riferisce all’altezza d’onda, H .

Fissato il periodo quindi, onde più basse sono riflesse totalmente mentre onde più alte sono riflesse parzialmente. La riflessione è però importantissima perché serve a liberare il contenute energetico delle onde in arrivo. Per quanto riguarda la diffrazione, essa si verifica quando l’onda incontra un ostacolo di dimensioni confrontabili con la sua lunghezza si ha una dispersione (= redistribuzione!) dell’energia di un’onda nella zona d’ombra dell’opera. Anche qua esistono abachi, ormai poco utilizzati se non in fase di pre-dimensionamento.

Frangimento: Le particelle che si trovano sulla cresta dell’onda iniziano a spostarsi con una velocità maggiore rispetto alla celerità di propagazione dell’onda, quando la velocità euleriana in corrispondenza della cresta eguaglia la velocità di fase (c) l’onda frange. Esistono in letteratura diverse formule parametriche che dicono qual è la massima altezza d’onda stabile in corrispondenza di una certa profondità. Nel caso di profondità infinita il frangimento non è indotto dall’azione del fondo ma da un fenomeno cosiddetto di white capping che è un esubero di energia che il vento dà ad un’onda che è già al massimo del suo potenziale. Le altre due formule possono essere nuovamente usate con cautela, in funzione della profondità e noto il periodo d’onda, per calcolare qual è l’altezza massima che si può verificare per un’onda. Il frangimento può avvenire con diverse forme, esse si qualificano attraverso il numero di Irribarren (rapporto fra pendenza del fondale e radice quadrata della ripidità dell’onda al frangimento):

Per basse pendenze del fondale si ha un frangimento di tipo spilling, plunging e surging sono invece caratteristiche di pendenze più marcate. Nel primo caso il frangimento continua fino alla battigia, nel secondo caso esso è più localizzato (quello più amata dai surfisti) ciò è dovuto alla variazione più ripida di pendenza, il frangimento avviene tutto d’un colpo, l’ultimo non è quasi un frangimento, la pendenza è così marcata che non ha tempo di frangere. Si può dire con discreta sicurezza che la pendenza dipende dalla granulometria che caratterizza il fondale, pendenze molto dolci si hanno quando i fondali sono sabbiosi, pendenze più marcante quando il materiale è più grossolano tipo sassi e ciottoli, quindi a partire dalla granulometria del fondale possiamo ipotizzare il tipo di frangimento.

LEZIONE 2: Il moto ondoso – Nozioni di base Nei primi 10 minuti viene fatto un esempio su matlab che sembra collegato ad un discorso precedentemente fatto non presente nei video, questa parte è stata saltata, probabilmente un file matlab inserito su aulaweb. Strumenti di misura: Fino ad ora assumevano note l’altezza e il periodo dell’onda, ma queste grandezze come si possono misurare? La boa è largamente utilizzata oggigiorno, vi sono anche degli strumenti ancorati al fondale (ACDP) o ancora strumenti satellitari. Le boe sono sensori che galleggiano, tramite accelerometri, effettuano misure lungo gli spostamenti verticali e lungo l’orizzontale, tramite una doppia integrazione all’indietro essa riesce a riscostruire gli spostamenti, una volta noti gli spostamenti posso valutare l’altezza d’onda. Gli ADCP sono sensori posti sul fondo del mare, essi sparano un segnale verso la superficie che ritorna indietro quando incontra l’onda, questi strumenti vengono usati principalmente per valutare la velocità della corrente a seguito dell’interazione con il materiale sospeso in acqua, in altre parole si valuta uno shift temporale del segnale emesso. Stessa logica per le misure di altezza d’onda da satelliti, essi ricostruiscono infatti l’orografia delle aree in base al ritardo del segnale emesso, si può fare la stessa cosa se il segnale viene riflesso dallo specchio acqua così da valutare la variazione dell’altezza della superficie libera. Infine, si hanno i radar (HiFrq Radar), il vantaggio di questi strumenti è dovuto al loro ancoraggio al suolo e non in acqua (gli strumenti acquatici sono molto delicati e sono sottoposti agli aggressivi agenti marini) anche se vengono impiegati solo di recente per lo studio delle caratteristiche del mare. Essi, infatti, misurano l’andamento delle correnti marine, per avere informazioni sull’altezza d’onda bisogna ricorrere a degli stratagemmi (degli algoritmi) che non sono stati ancora ben sviluppati e sistematizzati in maniera rigorosa. I dati ricavati da questi strumenti non sono quindi particolarmente attendibili. Pertanto, gli strumenti maggiormente utilizzate sono per adesso le boe ed i satelliti. Statistica delle onde random: Iniziamo in uno spazio 2-D, ipotizziamo di avere una boa che si sposta solamente sulla sua verticale, se osserviamo un segnale di registrazione, a seguito dell’integrazione del segnale di accelerazione sulla verticale della boa, ci aspetteremmo di ottenere quanto riportato in figura sotto.

È giusto sottolineare che la frequenza di campionamento è propria della boa (unità di misura Hz, in un secondo quanti campionamenti posso fare). I parametri d’onda che noi ricaviamo si riferiscono solitamente ad un intervallo di circa 10-15 min, questo perché si assume che l’ipotesi di stazionarietà statistica per le onde di mare sia valida se si rimane all’interno di questo intervallo: in 15 min. è lecito ipotizzare che il mare non subisca variazioni significative in grado di alterare il valore medio che si vuole estrapolare a partire dai dati raccolti dalla boa (Le misure che si possono avere in questi 15 min. dipendono dallo strumento).

Quindi a partire dalla figura sopra si vuole determinare le caratteristiche dell’onda all’interno dell’intervallo dei 15 min. indicati, come si fa? Statistica delle onde random: metodi di zero – crossing Sulle ordinate abbiamo l’elevazione della superfice libera, sull’asse delle x si ha invece la quota del medio mare

In questo metodo si hanno due possibilità: si possono individuare infatti i punti nel grafico in cui la curva passa da valori negativi a valori (up-crossing, cerchi rossi) oppure punti in cui la curva passa da valori positivi a valori negativi (down-crossing, cerchi bianchi), una volta identificati questi i punti si può dire che tutto ciò che è compreso fra di essi può essere definito come un’onda (curva fra due punti rossi successivi o fra due punti bianchi successivi), quest’onda è caratterizzata da una propria altezza H 1 (di fatto la distanza fra il massimo della superficie libera e il minimo della superficie libera del profilo compreso fra i due punti) alla quale possiamo associare un periodo (il tempo che intercorre fra il primo e il secondo punto rosso). Questo metodo permette quindi di associare a ciascuna onda una sua altezza e un suo periodo. Up e down danno più meno gli stessi risultati. Statistica delle onde random: grandezze caratterstiche Una volta raccolti questi dati si possono definire delle grandezze caratteristiche: -

´. Altezza media dello stato di mare, H

-

Altezza massima dello stato di mare, H max .

-

Periodo massimo dello stato di mare, T max.

-

Periodo medio dello stato di mare, T´ . Media del terzo più alto delle onde registrate: riordino i dati di altezza d’onda dal più piccolo al più grande, prendo il terzo che contiene i valori più alti e ne faccio la media, comunemente è indicata come altezza d’onda significativa H 1 . Essa è l’altezza più significativa che rappresenta uno stato di mare. 3

A quest’ultima è possibile associare il periodo medio dello stato di mare, stando attenti che il procedimento per determinarlo non è lo stesso per H 1 ! Non bisogna infatti riordinare i periodi dal più piccolo al più grande e poi fare la 3

media del terzo maggiore, ma va fatta la media del terzo maggiore della serie di periodi riordinati in maniera coerente alle rispettive altezze d’onda (devo seguire l’ordine delle altezze d’onda). Altezze più grandi è vero che hanno altezze maggiori ma non c’è una proporzionalità univoca, può essere che bassi periodi siano associati ad altezze d’onda grandi e piccoli, non vale il viceversa per un problema di stabilità dell’onda. Le altezze d’onda di uno stato di mare possono essere sempre rappresentate tramite una distribuzione di probabilità di tipo Rayleigh. Significa che estraendo le altezze e periodi della serie e calcolando l’altezza d’onda significativa e periodo medio (T 1 ≡T m), le altezze d’onda seguono la distribuzione indicata (densità di probabilità – valori di altezza 3

d’onda).

Figura 2: f=densità di probabilità (oppure p), P=probabilità di non superamento (oppure F)

Questa distribuzione è monoparametrica secondo σ 2 che va stimato a partire dai dati raccolti. Remind: - f = probabilità che la nostra altezza d’onda assuma determinati valori. Il picco è la moda (most probable height) -> PDF - P = probabilità che la nostra altezza d’onda non superi un determinato valore d’onda, si ottiene andando a derivare f. -> CDF Le curve che si ottengono non sono, ovviamente, continue a causa della natura dello strumento. In particolare, in base a quanto detto fino ad adesso si nota che per il calcolo delle caratteristiche dell’onda sono stati di fatto impiegati 4 punti (i due pallini rossi up-crossing, il massimo e il minimo) e tutto ciò che si ha nel mezzo non viene minimamente considerato! (vedi par. successivo) Analisi spettrale del moto ondoso: Fino ad ora è stata quindi applicata un’analisi statistica del moto ondoso, l’analisi spettrale ne rappresenta un’alternativa che permette di considerare la parte di segnale che nell’analisi statistica era trascurata . Questo tipo di trattazione è evidentemente più complessa e articolata però permette di ottenere un maggior numero di informazioni e parametri per il singolo stato di mare. L’aggettivo spettrale è riferito allo spettro di energia di uno stato di mare. Nella seguente immagine viene rappresentato il segnale che viene registrato da una generica boa: sull’asse delle ascisse viene rappresentato il tempo, mentre su quello delle ordinate il profilo della superficie libera

Ogni punto rappresentato si riferisce all’elevazione della superficie libera. Nell’immagine successiva viene rappresentato lo stesso identico segnale con la differenza che con le croci rosse sono evidenziati punti up-crossing, essi non sono sul valore 0, questo perché il rilevamento è discreto e non continuo e quindi non è detto che lo

strumento rilevi esattamente il punto nullo della superficie medio mare. Si prende infatti come zero l’ultimo valore di η negativo prima di incontrare dei punti positivi. Inoltre, i punti di massimo e minimo per ogni rilevazione sono indicati coi tondini blu. Col metodo statistico (metodo zero-crossing) vengono impiegato solamente questi punti evidenziati e niente di più.

Per utilizzare tutti i dati disponibili si assume che l’oscillazione irregolare della superficie libera (estremamente caotica e irregolare nel tempo) sia in realtà derivante dalla sovrapposizione di un numero infinito di segnali regolari sinusoidali

Nell’immagine le onde però non sono orientate diversamente ma hanno esclusivamente uno sfasamento dei profili, in altre parole una differenza di frequenza dei profili. Il segnale riportato in “Time” può essere quindi scomposto in infiniti profili sinusoidali regolari. Matematicamente questo prende il nome di trasformata di Fourier

In particolare, n rappresenta la sinusoidale della singola onda regolare mentre ω è lo sfasamento delle componenti che costituiscono lo stato di mare. Matematicamente è un ragionamento sensato che però ci aiuta poco per caratterizzare definitivamente lo stato di mare, non si è interessati ad avere infinite componenti, perciò viene impiegato un numero finito di onde che compongono il nostro segnale, questo numero finito di onde viene scelta in base all’accuratezza con la quale si vuole definire η. Il numero di componenti da ottenere dipende dalla cosiddetta Nyquist frequency. Normalmente è buina regola che in un’analisi spettrale siano presenti almeno 100 onde all’interno dell’analisi temporale. Quindi, a partire da ogni punto grigio della fig. sopra vengono associati una η ed una frequenza, viene in seguito applicata la trasformata di Fourier che ci permette di ricostruire la densità spettrale di energia (ampiezza al quadrato diviso la frequenza, m 2s), nel grafico per ogni frequenza individuata calcoliamo una densità spettrale che dipende dall’ampiezza perché, nuovamente, l’elevazione della superficie del medio mare nel

tempo η(t ) dipende dall’ampiezza dell’onda considerata ( An ) e dalla frequenza f n, quindi questi due valori sono impiegati per costruire la spectral density. I limiti che si impongono sull’asse x (per non avere un grafico infinito, con un limite superiore della frequenza ad infinito) sono scelti in base a quelli che possono dare un contributo effettivo allo stato di mare andando a vedere le componenti che effettivamente danno un contributo energetico. Ad esempio, nell’immagine riportata, nel caso in cui la frequenza è maggiore di 0,6 Hz non danno contributi energetici, quindi bisogna porre un intervallo.

Nel Mediterraneo si considerano trascurabili onde con periodo superiori a 16 s. quindi con frequenza 1/16 (limite superiore se ci riferiamo al periodo o limite inferiore se ci riferiamo alla frequenza), il periodo minimo (limite inferiore o superiore se ci riferiamo alla frequenza) per definire lo spetro di energia è 1 o 2 sec. Quindi a partire dai puntini grigi utilizziamo la trasformata di Fourier per ottenere lo spettro di energia riportato in figura. Analisi spettrale: lo spettro di energia Ipotizzando di avere sempre onde diverse ma orientate sempre nella stessa direzione dalla loro somma si ottiene quanto riportato in figura sotto (lì in verità le onde sono orientate con diverse direzioni ma il concetto è lo stesso)

Abbiamo quindi definito uno spettro di energia, rimanendo in uno spazio bidimensionale ci si riferisce quindi allo spettro in frequenza in cui i due parametri in gioco sono l’ampiezza (che si traduce in densità di energia, asse y) e la

frequenza (asse x). Il contenuto energetico delle singole componenti può essere definito tramite spettri in frequenza S( f ) che ci permette di calcolare i momenti di ordine r dello spettro.

Ove: -

S( f ) : spettro in frequenza f r: significa che la variabile di integrazione può esserci, qualora r >0 ; può non esserci qualorar =0 σ η: viene chiamata forza dello stato di mare

Questo spettro, facendo variare r fra valori positivi e negativi, permette di calcolare tramite un’analisi dimensionale i parametri che caratterizzano gli stati di mare (= momenti di ordine r). Se, ad esempio, il momento è di ordine 0 ( r =0 ) si calcola l’altezza d’onda spettrale:

Questa grandezza dovrebbe essere molto vicina all’altezza d’onda significativa calcolata col metodo up-crossing o down-crossing. Qual è la convenienza di applicare questo metodo? Posso definire un maggior numero di parametri. Con il metodo precedente invece ottengo solo l’altezza d’onda significativa e il periodo medio (per periodo medio si intende T 1 e 3

non T´ ). In base ad un’analisi dimensionale dei momenti di ordine r, da un loro rapporto si vede che si ottiene sempre una misura in secondi, si ottengono quindi diversi periodi medi. Questo è importante perché a seconda dell’ambito in cui si sta operando ci si riferisce a periodi medi differenti, un vantaggio non di poco conto . Per esempio, i periodi più lunghi sono quelli più pericolosi perché associati ad onde più erosive. Viceversa, periodi più piccoli si riferiscono ad onde più piccole che impattano più spesso la nostra struttura, il che comporta strutture di protezione sollecitate principalmente a fatica. Si può anche calcolare il periodo di picco, il picco dello spettro è quello associato alla frequenza che ha massima ampiezza (massimo contenuto energetico). Si nota quindi come sia necessario impiegare l’analisi spettrale nel momento in cui si deve calcolare il periodo di picco o periodi medi differenti, permette di arricchire molto le informazioni sullo stato di mare. Infatti, i modelli numerici impiegano un’analisi spettrale sia per la generazione che per la propagazione degli stati di mare dal largo verso riva. Anche le strumentazioni come le boe tramite un’analisi spettrale del moto ondoso forniscono le grandezze medie dello stato di mare nell’arco di 15 min. di riferimento. Analisi spettrale: lo spettro JONSWAP Lo spettro di densità di energia si può, come detto, ottenere tramite i dati empirici che si hanno raccolti dagli strumenti; in questo caso l’integrale per valutare lo spettro in frequenza può essere risolto in maniera numerica tramite una sommatoria del contenuto energetico associato a ciascun punto rilevato. Se si vuole però modellare lo stato di mare in esame si impiegano degli spettri modellati a partire da dati raccolti in tutto il mondo . Lo spettro JONSWAP (anni ’70) ad esempio è stato modellato a partire da campionamenti effettuati nel Mare del Nord (un mare molto energetico), ci sono pertanto alcuni accorgimenti nel momento in cui lo si voglia applicare alle nostre latitudini.

La campana può quindi essere parametrizzata in base alla frequenza al picco f p, al fattore di impicchimento (spanciamento) γ , alla velocità del vento che insiste su questo strato di mare e altre cose. In base a questi valori possiamo riprodurre il nostro stato di mare grazie a questo modello. Precedentemente, in base a quanto esposto, a partire da dati empirici e applicando successivamente la trasformata di Fourier si è ottenuto lo spettro energetico . Adesso, applicando un modello, si agisce sostanzialmente al contrario (lo fanno tutti i modelli numerici di propagazione del moto ondoso): “…il mio stato di mare deve essere modellato secondo un modello di tipo JONSWAP in cui la frequenza di picco f p ha valore noto (perché è noto U 10, cioè la velocità del vento che usiamo nel nostro omdello numerico come fonte di energia per le onde e F , cioè il fetch), in cui γ anche ha valore noto (fattore di amplificazione che dipende dalla situazione in cui siamo). A partire dallo spettro che si è definito il modello applicata una trasformata di Fourier al contrario (a partire dallo spettro definito crea un numero finito di componenti, di onde e ciascuno di questi segnali viene propagato). Perciò, nel momento in cui chiedo al modello di tirare fuori le grandezze significative in un altro punto prefissato magari più vicino alla costa, il modello prende tutti i segnali che ha calcolato nel punto che gli stiamo segnalando e ricostruisce uno spettro, calcola i momenti spettrali e restituisce tutte le info che ci servono”. Per quanto riguarda le nostre latitudini (Mediterraneo) γ =2,2 . Se ho un’onda di tipo swell mi aspetto che lo spettro sia molto impicchito perché mi basta solo una componente per l’oscillazione della superficie libera (non è molto chiaro però secondo me perché le onde sono sostanzialmente tutte uguali quindi il picco è sempre perché picco non varia). Viceversa, se ho un mare molto caotico in cui le onde sono nel mezzo del fetch si hanno molte frequenze differenti e quindi il grafico sarà molto spanciato in ragione delle differenti frequenze presenti. Analisi spettrali: spettri direzionali Fino ad ora abbiamo parlato solo di analisi bidimensionali! Un altro parametro cruciale per definire gli stati di mare è la direzione di provenienza, che corrisponde all’orientamento delle onde attese. Ma come definiamo queste direzioni? Col metodo down e up non possiamo definirla, con l’analisi spettrale si può in quanto essa può essere estesa in uno spazio 3-D. Si passa quindi da un’analisi bidimensionale (spettro in frequenza – frequenza) ad un’analisi tridimensionale (spettro in frequenza – direzione vs. frequenza – direzione, delle singole componenti). Ciascuna delle componenti in cui decomponiamo il segnale totale ha una propria frequenza e ampiezza ma anche una propria direzione. Nella figura sottostante sono presenti 3 assi: - Asse z: densità spettrale, contenuto energetico delle singole componenti. Esso non è più una curva ma una superficie. - Asse x: direzione, espressa in radianti. - Asse y: frequenza.

Ciascuna delle componenti, che apporta energia allo stato di mare, ha una sua frequenza (periodo) ma anche una sua direzione, si può associare un contributo energetico a ciascuna frequenza e ciascuna direzione. A partire dal modello 2-D si moltiplica lo spettro in frequenza per una funzione definita spreading function, definita come D(θ) che ci dice quanto le nostre onde sono coerenti in termini direzione rispetto alla frequenza di picco , nell’immagine sotto (che rappresenta uno spetro di energia) si vede come il picco di energia è concentrata attorno alla direzione di libeccio (225°, ovviamente l’immagine si riferisce a Genova).

Quindi gli spettri di energia ci danno informazioni in termini di: - Altezza d’onda significativa - Periodi medio - Periodi di picco - Direzione media - Direzione di picco Extreme values analysis (EVA): Queste analisi sono lo strumento alla base della progettazione di opere di ingegneria marittima costiera e off-shore, dato un trascorso di 10 anni di dati di altezze d’onda significativi si possono valutare dei parametri progettuali per le opere in esame. Per motivi legati alla capacità di memoria degli strumenti non è fattibile dare un output di dati ogni 15 min e perciò ogni 3 ore (a volte anche ogni ora) vengono forniti i dati sui parametri identificativi dello stato del mare, attenzione non sono però dati mediati nelle tre ore. Questa serie di dati storici è calcolata coi metodi visti fin ora (di fatto analisi spettrale), sullo stato di mare singolo viene calcolato un parametro medio significativo e poi su una serie di parametri significativi si fa un’analisi ai valori estremi e si calcolano i parametri di progetto dell’opera. Immaginiamo di dover dimensionare una diga a gettata (massi accatastati) in modo che resista a delle forzanti di progetto associate ad un tempo di ritorno di 100 anni e ricostruite a partire dai dati raccolti negli ultimi 40 anni (se va bene). Per poter calcolare l’altezza d’onda associata al periodo di ritorno di 100 anni bisogna ricorrere ad estrapolazioni statistiche in base ai dati a disposizione, queste estrapolazioni prendono il nome di analisi ai valori estremi. A partire dai dati di partenza viene applicato un modello statistico per prevedere statisticamente determinati livelli di probabilità per la distribuzione. Dapprima si seleziona un insieme significativo di dati, ci sono 3 metodi per selezionare i dati:

-

-

Total sample method: prende tutto il dataset a disposizione, porta dei vantaggi perché non butta via nulla però ci sono molti svantaggi in termini di ipotesi che vanno rispettate per applicare la EVA. Approccio vivamente sconsigliato. Utilizzato negli istituti norvegesi per quanto riguarda le normative di good practices. Annual / Monthly maxima method: suddivido la serie in intervalli definiti e prendo il massimo dell’intervallo, la durata dell’intervallo può essere annuale o mensile come dice il nome. Peak Over Threshold (POT): metodo largamente più utilizzato, picco sopra soglia, si seleziona un valore di soglia sulla variabile che si sta studiando e seleziono i dati che eccedono la soglia, fra questi, in base a operazioni che vedremo, se ne può selezionare un sottoinsieme. È il metodo migliore perché un compromesso fra i primi due: non butto via molti dati come nell’AM né ne utilizzo troppi come in ID , il che porta delle difficoltà nel rispettare le ipotesi alla base dell’analisi dei valori estremi. Anche questo metodo però ha trabocchetti, il valore di soglia spesso rischia di essere definito in maniera soggettiva.

EVA: le regole del gioco Ipotizziamo di avere un campione generico di dati Z, all’interno di questo campione ipotizziamo di selezionare due variabili: variabile 1 (X) e variabile 2 (Y). 1. Omogeneità del campione: i dati che noi selezioniamo dal campione devono provenire dalla stessa distribuzione di probabilità. La distribuzione di probabilità riferita alla variabile 1 e quella riferita alla variabile 2 devono restituire lo stesso valore in riferimento al campione a disposizione . La distribuzione di probabilità la scegliamo noi in base a come vogliamo rappresentare i campioni osservati.

2. Indipendenza: i dati presi all’interno di un campione osservato devono essere mutuamente indipendenti, questo si traduce così:

I dati di partenza non devono quindi presentare autocorrelazione, inoltre l’insieme di queste due ipotesi prendi il nome di IID conditions (independent identically distributed). Ciò permette di capire come scegliere un ID pone un problema in termini di indipendenza del campione: se si dispone di un dato su scala oraria è evidente che i campioni non sono fra loro indipendenti (se alle 17 ho una mareggiata è molto probabile che il mare sia mosso prima delle 17 e che alle 18 sia ancora molto mosso, la successione dei dati rispetta una certa legge, una certa correlazione come, ad esempio, una crescita monotonica). Quindi in generale si sconsiglia l’utilizzo di ID, mentre se si hanno una quartina o una trentina di dati annuali a disposizione si può adottare tranquillamente un AM, mentre se si hanno solamente dati riferiti agli ultimi 10 o 20 anni sarebbe meglio impiegare un POT. In generale, all’interno della comunità scientifica, vale la seguente affermazione: “Le stime (estrapolazioni) statistiche che si possono fare sono attendibili fino a un tempo di ritorno 3 volte maggiore del periodo di dati a disposizione” Quindi su dati che ricoprono un arco temporale di 40 anni è possibile effettuare una estrapolazione statistica attendibile (con basso margine di errore) e dettagliata fino a un tempo di ritorno di 100/120 anni. EVA: Peak over threshold La POT permette di avere dei campioni sufficientemente estesi, verificando la condizione di IID tramite opportuni test statistici. Per questo tipo di metodo si possono scegliere i dati in due modi differenti:

-

Considerare tutte le eccedenze di soglia, ove permangono problemi relativi all’indipendenza dei dati come per il total sample method.

-

Per ovviare a questo problema si può effettuare un declustering delle eccedenze, il punto di riferimento in questo caso diventa il massimo valore del gruppo di eccedenza.

Nell’immagine sopra riportata si nota però che vi sono due distinti gruppi di eccedenza caratterizzati dai due picchi distinti, la discriminante nella scelta del picco dipende da un parametro da introdurre che è il tempo di inter-arrivo di due gruppi di eccedenze. Il tempo di inter-arrivo è l’intervallo temporale che deve passare affinché due gruppi di eccedenze possano considerarsi eventi separati, in altre parole corrisponde al tempo che passa fra l’ultimo punto di eccedenza del primo cluster e il primo punto di eccedenza del cluster successivo. Questo tempo va confrontato con un tempo di interarrivo di soglia fissato a priori (solitamente 12 o 24 ore). Se il tempo che intercorre è inferiore alle 12 ore i due gruppi sono considerati come un unicum e perciò il valore massimo che si prende è uno solo (non si hanno più due mareggiate ad esempio ma una sola), se il tempo intercorso è invece superiore al tempo di inter-arrivo limite allora non si avrà una sola mareggiata ma due ed individueremo perciò due picchi. Quindi: 1. Dapprima seleziono i dati. 2. Secondariamente verifico che essi siano indipendenti e non autocorrelati. 3. In ultimo devo verificare che essi siano correttamente modellati dal modello da noi scelto. EVA: indipendenza dei dati La verifica dell’indipendenza dei dati può essere fatta sia per via analitica che per via grafica. Per quanto riguarda la verifica di tipo grafico, viene riportata nell’immagine un campione di dati selezionato tramite il declustering delle eccedenze derivanti dal metodo POT e sono individuati dei valori di soglia in grado di originare un campione adatto per un’analisi EVA, la funzione di autocorrelazione è contenuta all’interno di intervalli di confidenza che sono rappresentati dalle due linee blu.

I lag ci dicono qual è la correlazione di ogni elemento con quello successivo (lag=1), con i due successivi (lag=2) e così via, in questo caso l’autocorrelazione è stata calcolata fino a 20 (autocorrelazione fino a 20 picchi di mareggiata rispetto a quello che sto osservando). Nell’immagine emerge una certa periodicità legata alla stagionalità delle mareggiate, ma sono valori contenuti all’interno dell’intervallo di confidenza, nessun problema: il campione è non auto-correlato. In corrispondenza di 0 ovviamente l’autocorrelazione è 1 dal momento che il primo elemento è uguale con sé stesso. L’autocorrelazione infatti varia fra valori compresi fra -1 e 1, se vale 0 due elementi non sono correlati, se vale -1 essi sono perfettamente anti-correlati se vale 1 invece essi sono perfettamente autocorrelati. Nell’immagine successiva invece sono riportati una serie di dati che sono correlati in una misura che eccede l’intervallo di confidenza, in questo caso i dati sono altamente auto-correlati e non possono essere impiegati per una EVA

Per quanto riguarda una verifica analitica possono essere invece impiegati dei test non-parametrici (test che vale a prescindere dalla distribuzione dei dati), di seguito viene riportato il test di Kendell(?) che permette, a partire dai dati empirici, di calcolare un valore empirico del parametro del test (τ di Kendell, N=numero di dati a disposizione, N d =indicatore delle posizione dei dati all’interno della serie) che va confrontato con un valore che dovrebbe verificarsi qualora il campione non fosse soggetto ad autocorrelazione: se il campione presenta dati non auto-correlati il τ non empirico dovrebbe avere un certo valore ed ha una media rappresentata da E ed una varianza rappresentata da Var. Confronto di fatto questo valore con quello empirico calcolato.

Se il P-value è inferiore al 5% rigetto l’ipotesi di auto-correlazione, se è superiore a tale valore il τ approssima bene la teoria di kendell e i dati non sono auto-correlati. EVA: Peak over threshold Come detto, definito il tempo di inter-arrivo e l’altezza d’onda di soglia, vengono individuate un numero di mareggiate che superano la soglia e per ognuna di esse viene individuato il picco. Applicare questo metodo di declustering delle eccedenze porta con sé dei vantaggi: 1. Semplicità dei calcoli per i valori estremi 2. Non si hanno problemi nel verificare la condizione di auto-correlazione, i test sono solitamente soddisfacenti se applichiamo il declustering 3. Possibilità di accoppiare altezza d’onda e durata di ogni mareggiata, che permette di fare analisi maggiormente dettagliate. EVA: Generalized Pareto Distribution (GPD), cioè fit dei dati ottenuti con POT Per calcolare i valori progettuali dobbiamo modellare i nostri dati con una distribuzione di probabilità, nell’analisi di singoli stati di mare l’analisi tramite modelli di Rayleigh è obbligata, nel caso di dati selezionati tramite POT questo non è vero, si hanno infatti diverse distribuzioni possibili. Di seguito viene riportata la GPD che di fatto è quella che quasi sempre viene impiegata per descrivere serie di dati selezionati tramite approcci POT, ci sono poi anche dei teoremi matematici che lo dimostrano.

Remind: - CDF = cumulative distribution function, probabilità di non superamento (di un determinato valore) della GDP La CDF può essere definita sia empiricamente che teoricamente (legata ad una determinata distribuzione), assumendo i dati indipendenti e modellabili attraverso una GDP stiamo assumendo che il campione osservato è una delle possibili realizzazioni di una distribuzione di tipo Pareto. La CDF di Pareto è quindi tri-parametrica, se il parametro di forma è pari 0 la GDP diventa uguale ad una distribuzione esponenziale. Quindi la probabilità di non superamento della GDP può essere definita in funzione di un qualunque valore della nostra variabile. Per la stima dei parametri si possono utilizzare: - Massima verosimiglianza  - Momenti  eguaglio momenti della distribuzione (media, varianza, skewness, Kurtosis…) ai momenti empirici della serie di dati, ho un sistema di n equazioni in n incognite. - L-momenti  Simile al precedente, semplifica il calcolo nel sistema, i 3 parametri possono essere valutati in funzione di grandezze che dipendono dai valori del campione osservato ( λ 1 , λ2 , τ 3) e della CDF empirica (empirical cdf). La cosiddetta ECDF viene definita come segue:

Ove l’indicatore i rappresenta la posizione dell’elemento i-esimo all’interno del campione riordinato di dimensione N. Esempio: Dati 4 elementi: 1 (i=1), 7 (i=3), 3 (i=2),

Si ha:

1 3+1 3 eCDF ( z=7 ) = 3+1 2 eCDF ( z=3 ) = 3+1 eCDF ( z=1 )=

Se al denominatore mettessimo N si otterrebbe una CDF pari a 1, la probabilità certa in natura non esiste così come quella nulla (CDF=0), il denominatore così scelto permette di evitare che si verifichino situazioni irrealizzabili

Figura 3: eCDF (sx.), eCDF e CDF sovrapposte (dx.)

Uno dei metodi per verificare l’omogeneità dei dati è vedere se la curva teorica approssima in maniera sufficientemente accurata la eCDF empirica ottenuta a partire dai dati, dall’immagine sopra (dx.) si vede che l’approssimazione del modello è abbastanza debole in relazione ai dati empirici. Per arrivare ai valori di progetto di altezza d’onda dobbiamo valutare la probabilità di non superamento di un valore: invertiamo la distribuzione che abbiamo individuato per calcolare il valore relativo al quantile di riferimento. Quindi, stimati i parametri, se imponiamo ad esempio 0,8 (80%) come valore di non superamento andando a leggere sul modello teorico il valore della variabile che restituisce per quella probabilità abbiamo ottenuto la sollecitazione di progetto (fig. sopra a dx.) EVA: tempo di ritorno I valori dell’altezza d’onda di progetto sono valutati a partire da un tempo di ritorno fissato, esso è legato alla probabilità di non superamento. Non ci sono normative stringenti in ambito marittimo, ma solo delle raccomandazioni. La probabilità di non superamento si valuta come:

T R = tempo di ritorno, fornito da normativa, valore fisso. λ = numero medio di eventi estremi (picchi del declustering ad esempio, 40 anni di dati 120 mareggiate significate, λ=3) che si sono verifica ogni anno, esso dipende ovviamente da come abbiamo definito la soglia e il tempo di interarrivo, valore variabile! Questo workflow ci fare analisi di tipo monovariato (serie di dati, impongo approccio POT, seleziono mareggiate, valore progettuale per T=100 anni):

EVA: i risultati Se l’analisi è monovariata omni-direzionale si calcola una curva (blu, che nasce dalle GDP) con relativi intervalli di confidenza (tratteggio) previa verifica che i dati vi stiano all’interno (pallini rossi).

Se invece si considerano delle particolari direzioni (filtro preliminare sulla direzione) i return values gli assi della scala cambiano: -

Libeccio: l’altezza d’onda per periodo di ritorno di 100 anni è pari 6.8 m. Scirocco: l’altezza d’onda per periodo di ritorno di 100 anni è poco meno di 5 m.

Solitamente si accoppiano: Metodo di selezione degli eventi (selezione delle mareggiate significative)

Modello

Annual Maxima

Generalized Extreme Values

Peak Over Threshold

Generalized Pareto Distribution

È importante sottolineare che la GDP è una derivazione della GEV. EVA: alcuni esempi normativi Non sono stringenti, alcune dicono addirittura di non usare la Pareto, quando invece si usa sempre. Ancora, l’autorità portuale di Genova consiglia di adottare un tempo di ritorno di 200, non sono normative cogenti. Discorso ovviamente diverso per le opere fluviali, che per normativa devono essere realizzate per sopravvivere ad eventi caratterizzati da un tempo di ritorno di 200 anni. In ambito costiero i tempi di ritorno ragionevoli sono compresi fra i 100 e 200 anni.

EVA: analisi bivariate (i.e le variabili sono correlate) Se diventa rilevante calcolare anche la durata della mareggiata o il periodo di progetto oltre che l’altezza d’onda? Lo si fa tramite delle semplici formule parametriche, come ad esempio:

T picco=8,5 π

(√ 4hg ) s

Queste analisi non sono altro che un fitting effettuato in due dimensioni, la linea continua di probabilità diventa una superficie continua di probabilità: ad un’onda sono associate diverse probabilità e quindi diversi picchi. h s è valore noto. Tuttavia, la relazione di cui sopra non è di proporzionalità perfetta fra altezza e periodo e fornisce una curva e non una superficie. L’approssimazione è forte. Si possono perciò utilizzare metodi statistici più raffinati come, appunto, le distribuzioni bivariate che impiegano superfici isoprobabili (min. 54:00 lect.6).

N.B: Con i codici: spectral_analisys, up_cross e down_cross si hanno tutti gli strumenti per definire dei parametri relativi a degli stati di mare a partire da dati relativi all’oscillazione della superficie libera. Dopodiché si potrebbe fare un’estensione a una dimensione in più (spostamento orizzontale) dato che il workflow nell’analisi spettrale è identico, la complicanza sta nell’impiego della funzione di spreading.

LEZIONE 1: Introduzione Bibliografia: Tra le altre PIANC-AIPCN Technical Reports (istituzione internazionale) pubblica linee guida legate a infrastrutture marittime (noi siamo iscritti come Unige e quindi abbiamo a disposizione tutti i report, basta chiedere per approfondire). Il Coastal Engineering Manual è invece liberamente scaricabile sulla rete. Dighe: opere di difesa per proteggere specchi d’acqua (aree portuali o terminali) dall’azione delle forzanti metereologiche quali sono le onde. Nell’immagine sotto le navi devono scaricare e caricare merci in sicurezza, si costruisce quindi un ostacolo in grado di frangere il moto delle onde e generare uno stato di calma a tergo della diga.

Le dighe a gettata sono chiamate così perché in origine venivano fisicamente gettati dei sassi in mare. Alla Foce (Genova), a protezione del nuovo porto turistico, è realizzata una diga a getta (in questo caso, a differenza della foto i massi impiegati sono artificiali, in cls.). In alternativa, si può avere una diga a parete verticale costituita da un elemento prefabbricato (un muro) che rappresenta l’ostacolo a contrasto del moto ondoso. A seconda dei mezzi economici e delle capacità tecniche si sceglie una diga piuttosto che un’altra, quest’ultimo tipo di diga è molto costosa ad esempio. Esse vengono solitamente realizzate impiegando dei cassoni cellulari che vengono trasportati nel punto prestabilito tramite galleggiamento e successivamente affondati.

Le opere di accosto sono elementi che garantiscono l’attracco e il posizionamento delle navi all’interno del porto, in gergo si chiamano banchine e devono presentare alcune caratteristiche: - Un paramento rivolto verso la nave con elementi di protezione sia della nave che della banchina - Pescaggio adeguato, di fronte alla banchina la nave deve avvicinarsi in sicurezza. La profondità è regolata in base alle navi che devono essere accolte (nave di progetto) le quali impongono le caratteristiche di progetto a tutto il porto. Nell’immagine sottostante si vede un terminale contenitorio in cui sono attraccate due navi contenitori, le opere d’accosto sono quindi banchine rettilinee dove possono attraccare 2 o più navi in grado di sostenere tutte le strutture necessarie per la movimentazione delle merci (gru ad esempio). Queste opere devono essere attrezzate con altri elementi utili per l’operatività dell’infrastruttura, in particolare nell’immagine sotto sono messi in evidenza i parabordi utilizzati per assorbire l’energia d’urto delle navi e le bitte, elementi atti ad attraccare la nave. Questi elementi sono cruciali perché devono sostenere carichi significativi e influisce sulla sicurezza delle opere portuali.

Le opere d’accosto possono essere di diversi tipi, si possono avere anche elementi snelli e lunghi come pontili, la tipologia di infrastruttura dipende dalla tipologia di merce che si sta movimentando: merci diverse e modalità di trasporto diverse hanno necessità di spazi e infrastrutture diverse (nell’immagine sotto pontile per stoccaggio di carbone e minerali).

Lo stesso approccio si impiega per le rinfuse liquide, dove non serve una grossa infrastruttura a terra come i pontili e riducendo al minimo l’infrastruttura da costruire. Addirittura, negli scarichi petroliferi si riducono ancora le infrastrutture necessarie. Fino ad arrivare alle strutture più isolate costituite da una stazione di pompaggio che impiega tubi di sottomarini collegati alle centrali di stoccaggio.

Vi sono opere speciali quali bacini di carenaggio: grandi vasche che servono per ospitare grosse imbarcazioni per effettuare riparazione o manutenzione. A Genova vi sono 6 vasche di carenaggio e tira molto all’interno del porto. Questi elementi sono molto particolari in termini di sollecitazioni alle quali sono sottoposti.

Se ci sposta verso il largo si hanno strutture su pali e offshore, per essere realizzate esse devono ancorarsi sul mare, solitamente si impiegano strutture reticolari che si ancorano al fondale marino. È fondamentale capire il comportamento idrodinamico di un elemento snello sottoposto all’azione dinamica di un fluido. È uno dei settori che si sta sviluppando maggiormente in campo ingegneristico è la realizzazione di parchi eolici off-shore, non vengono richiesti solamente requisiti progettuali in termini di prestazioni ma anche di erosione alla base del palo e di scavo in prossimità delle fondazioni.

LEZIONE 2: Dighe a gettata e a parete verticale Sostanzialmente sono ostacoli fatti con accumulo di massi. In generale, per progettare una diga va primariamente scelta la collocazione planimetrica. Essa deve difendere il porto dai marosi più energetici, in particolare, come è stato precedentemente esposto, le onde sono caratterizzate da tre grandezze: -

Altezza Periodo Direzione di provenienza

Perciò la prima cosa che si fa per realizzare un porto è uno studio meteo-marino, studio il vento e le onde per capire da dove vengono le onde più energetiche e con quale frequenza. Solitamente si identifica una traversia principale: spicchio di cerco da dove provengono le mareggiate più energetiche (quelle con altezze d’onda maggiori ). La traversia principale individua quindi la direzione principale sulla quale devo difendere l’ambito portuale, questa direzione prende il nome di direzione dei mari dominanti. La diga principale (diga foranea) perpendicolarmente alla direzione di provenienza di queste onde così da avere acqua calma a tergo della diga. Inoltre, sono presenti anche delle onde energetiche non trascurabili con direzione differente da quella principale, le mareggiate che arrivano da altre direzioni agiscono lungo la cosiddetta traversia secondaria. Le onde appartenenti a questa direzione potrebbero penetrare nel bacino portuale e generare problemi di operatività e sicurezza delle operazioni, per questo motivo viene realizzata una diga secondaria (diga di sottoflutto) per smorzare il moto ondoso proveniente dai settori di traversia secondaria ed evitare il fenomeno di agitazione interna portuale. Essa è apposta realizzata per cercare di minimizzare l’agitazione interna. Questo discorso vale indipendentemente dal tipo di diga che si costruisce. La scelta sulla tipologia di opera avviene in base a due criteri fondamentali: -

-

Criterio idraulico  metto una diga a gettata se le onde potrebbero frangere sulla diga, metto una diga a parete verticale se le onde non frangono ed ho alte profondità (quelle a gettata sarebbero molto care per la quantità di materiale necessario). Perché le onde quando frangono trasportano massa e le dige verticali potrebbero muoversi e rompersi (sono difficilmente riparabili). Le dighe a gettata riescono a dissipare l’energia delle onde e mantenere la loro posizione anche nel caso di onde frangenti. Criterio costruttivo  legato alla disponibilità di materiale e maestranze.

Esempio: Diga di Punta Riso Brindisi, la diga è divisa in due parti (a gettata e a cassoni) differenti perché il primo è su basse profondità che aumentano progressivamente e sono quindi stati adottati i cassoni (-25 - -35 mt.). Si possono quindi combinare tipologie differenti in funzione dell’ottimizzazione. Diga a gettata: La classificazione degli strati viene fatta in tonnellate o comunque in relazione al peso. 1. Accumulo di materiale, nucleo. Materiale di cava (lapideo tout venant, cioè non selezionato granulometricamente) generico generalmente costituito da pezzi piccoli dal momento che il peso indicato va da 0,1 a 1000 Kg, ma raccolto in maniera da evitare materiale troppo fine o elementi troppo grossi. 2. Massi 0,05 – 1: 3. Massi 3 – 7: 4. Tetrapodi 16 m3: Questi 3 strati sono definiti strati filtro (realizzati tramite elementi lapidei), essi servono per aumentare pian piano la dimensione degli elementi per arrivare all’elemento più grosso che si mette a contatto con le onde. Essi sono messi

per evitare che si abbiano fenomeni di dilavamento del nucleo verso l’interno. Se mettessi subito i tetrapodi direttamente sul nucleo, la naturale porosità dei tetrapodi non impedisce al materiale del nucleo di venire “portato via” dalla forza delle onde. Essi permettono una transizione graduale dal nucleo ai fino allo strato più esterno (tetrapodi) definito come mantellata (strato che resiste all’azione delle onde). La mantellata non arriva fino al fondale ma raggiunge una profondità di circa 14 m., alla base della mantellata viene realizzata una cosiddetta opera al piede. Essa serve per bloccare la mantellata, per evitare che gli elementi che la costituiscono rotolino fino sul fondo del mare. L’opera al piede è posizionata sopra gli strati filtro e nemmeno lei arriva fino al fondo del mare. Questo viene fatto perché gli elementi più grossi (i tetrapodi) sono quelli che costano di più, da una certa profondità in poi l’azione delle onde diminuisce e quindi non è necessario impiegarli sotto certe profondità. La mantellata tuttavia può arrivare fino in fondo nel caso particolare di onde molto energetiche anche per basse profondità, di conseguenza anche l’opera al piede è adagiata sul fondale.

Nella parte più interna ci sono acque calme (il porto) non serve quindi impiegare le mantellate. Tuttavia, è presente una superficie protettiva atta a contrastare fenomeni di onde interne (navi che passano) definiti come agitazione interna del moto ondoso oppure fenomeni di tracimazione che possono creare un getto erosivo a tergo della diga. Il muro o massiccio di coronamento (elemento a L) solitamente viene realizzato quando si vuole rendere accessibile la sommità della diga. Nei porti turistici viene generalmente costruito, nei porti commerciali viene fatto per poter ispezionare la diga.

Diga a parete verticale: I volumi di materiale per questo tipo di diga sono particolarmente contenuti. Essa è generalmente costituita da 3 elementi: 1. Imbasamento: strato di terreno che fa da fondazione e sul quale si appoggiano i cassoni cellulari. Esso ridistribuisce il peso del cassone sul terreno sottostante (i terreni sotto il mare fanno schifo) . L’imbasamento è costituito da elementi piccoli, inoltre esso permette il corretto posizionamento dei cassoni. I cassoni sono

infatti prefabbricati negli impianti con altezze limite, di conseguenza l’imbasamento è costruito in funzione dell’altezza massima del cassone. Il suo dimensionamento inoltre è molto importante perché può generare problemi di interazione con le onde se mal concepito. 2. Cassone: è l’elemento più importante ed ha il compito di fermare l’azione delle onde. Di fronte al cassone sono presenti i cosiddetti massi guardiani (quelli tratteggiati). 3. Massiccio di coronamento: ricopre il ruolo di contrasto nei confronti del fenomeno di tracimazione

LEZIONE 3: Introduzione alle verifiche progettuali Non c’è una soluzione univoca quando si parla di dighe, la scelta finale dipende da molti fattori come: -

Disponibilità dei materiali Profondità Tipologia fondale …

Sostanzialmente si mantiene la stratigrafia generale prima descritta, sono i materiali impiegati a definire la differenza fra le diverse realizzazioni. Verifiche progettuali: Quando si dimensionano questo tipo di opere, il primo passo è, in linea del tutto generale, la valutazione degli ingombri e il costo generico. Generalmente per questo tipo di opere si considerano due tipologie di verifiche: - Risposta idraulica: analisi condotte per definire correttamente la sezione trasversale della diga (il profilo). A seconda di come è concepita possono esservi aspetti che magari non sono soddisfatti (tracimazione) - Risposta di stabilità: fondamentalmente verifica sulla resistenza al danneggiamento del manufatto nei confronti dell’azione delle onde, l’opera deve essere in grado di mantenere la sua funzione senza danneggiarsi. Solitamente queste verifiche sono fatte in parallelo e sono risolte secondo operazioni iterative, a partire da un primo tentativo si sviluppa il progetto sulla base degli input forniti dei committenti (autorità portuali o enti regionali). Quando si inizia a dimensionare questo tipo di infrastrutture, tutte le relazioni di verifica/progetto sono state formulate su esperimenti di laboratorio o osservazioni di campo su dighe esistenti perché la natura dei processi fisici coinvolti è complessa ed è difficile creare un modello semplificato. Negli ultimi anni sono stati fatti passi avanti sul campo ma comunque non si è risolto il problema. Tutte le formule che si trovano sui manuali sono perciò valide sotto strette condizioni sperimentali, se mi allontano da queste condizioni la relazione individuata non è corretta. Inoltre, se si parla di relazioni ottenute in laboratorio esse si basano su modelli in scala, il modellino deve quindi essere ben accurato pur sapendo che certe quantità devono essere correttamente scalate. Questo limita il campo di validità delle formule in base al modello fisico-geometrico impiegato.

DIGHE A GETTATA Dimensionamento della mantellata: Solitamente, è la prima verifica che viene condotta: definizione degli elementi che costituiscono lo strato più esterno della diga. Deve essere lo strato più robusto. Storicamente si iniziano a fare ste verifiche nel 1958 grazia ad Hudson, egli infatti relaziona il diametro medio dei massi con le caratteristiche delle onde (altezza caratteristica del moto ondoso) con la pendenza della mantellata e con un coefficiente di stabilità. Solitamente quello che si ottiene è la massa dei massi. Nella formula sottostante H corrisponde all’altezza d’onda significativa

Questa verifica viene fatta prima calcolando il diametro medio dei massi D n 50 e poi la loro massa, ogni elemento è esemplificato come un elemento cubico con dimensione pari al diametro medio dei massi . La densità dei massi cambia ma solitamente è intorno ai 2600 Kg/m^3. Tale relazione è empirica sulla base di esperimenti relativi allo

spostamento di un ammasso di pietre sotto l’azione delle onde, risulta infatti molto difficile fare un modello numerico sia per il singolo masso che per l’insieme id massi.

Nell’immagine sopra il punto d. corrisponde al danneggiamento in cui la massa al piede non riesce a sostenere il rotolamento dei massi di mantellata. I massi resistono all’azione delle onde in virtù del loro peso e alle azioni mutue che si scambiano. Fondamentalmente quindi forza di attrito dovuta alla gravità e interazione coi massi vicini.

Tutti gli elementi della formula citata si possono calcolare o sono fissati in sede di progetto. Il coefficiente K d dipende dalle caratteristiche dell’elemento (più o meno spigoloso), da dove lo posiziono all’interno della diga (tratto centrale o tratto di testata, che è la zona più delicata ed esposta) e dal frangimento o meno delle onde sulla profondità di impianto della diga: a partire dalla condizione indisturbata (senza diga) e da dove si pensa di localizzare la diga va visto se al suo piede le onde presentano frangimento o meno. Sono quindi presenti delle tabelle in cui il valore di K d è dato in funzione dei parametri sopra citati. Tabella 1: presa dal Shore Protection Manual (1977), è quello che ha ottenuto Hudson con i suoi esperimenti (la cot α è il range di pendenza degli esperimenti)

La percentuale della tabella sopra si riferisce al grado di danneggiamento, questo perché le dighe a gettata sono riparabili rifiorendo (rinfoltimento) la massicciata se i danni sono contenuti. Oltre il 15% il danno non potrebbe essere recuperabile, questo accade quando le onde espongono lo strato di nucleo che si erode molto velocemente.

Sempre nello SPM è presente una descrizione del K D molto estesa, Hudson infatti ha fatto degli esperimenti sia su massi artificiali (quarrystone) che naturali (Rough Angular) e ha elaborato una tabella: -

n = numero di strati su cui pongo gli elementi Placement = posizionamento del masso Strucutretrank = fusto principale della diga Strucuture Head = testa della diga Breaking wave = onde già frante al piede della struttura Nonbreaking wave = onde non ancora frante al piede della struttura Slope = pendenze per cui sono stati fatti gli esperimenti

Come si può vedere dalla tabella di Hudson ha una forte variabilità, solitamente per dighe a gettata (per un trank normale) è circa 4. Minore è K D più grande è il masso della diga.

Figura 4: n corrisponde al numero di strati, solitamente i massi sono messi in doppio strato, raramente in singolo strato

Il danneggiamento è definito come la percentuale dell’area segnata: quanta area è stata liberata dal movimento di eventuali massi diviso il profilo originale

Vi sono diversi livelli di danneggiamento: -

No damage: non si muove niente, ovviamente questo in seguito al posizionamento dei massi che per natura si assestano. Initial damage: poche unità vengono spostate, solitamente corrisponde allo 0 - 5 %, eventualmente anche trascurabile. Danno intermiedio: varia fra il danno moderato e quello severo, è un danno ancora riparabile una volta terminata la mareggiata. In caso contrario può portare alla failure e al collasso della struttura.

Il masso viene scelto a partire da un numero preciso (es: 7 tonn e 727 Kg), tuttavia chi ce li fornisce (le cave) li ottiene tramite esplosione e non può fornire un masso dal peso esatto richiesto e soprattutto tutti i massi uguali dello stesso

peso. Solitamente si ragiona in un range di peso, il valore di progetto è pertanto un valore mediano, l’intervallo di incertezza sul peso dipende dal peso di progetto del singolo masso della mantellata.

Tabella 2: Narrow grading - Van der Meer

Nell’esempio citato ci troviamo nella terza classe (5-10 tonn.), il masso mediano è 7.5 tonn., si possono quindi accettare sassi di peso pari al 60% del masso progettuale o del 30% in più. Inoltre, è richiesto o buona norma che(?) almeno il 50% degli elementi sia più pesante del peso di progetto. Il range si stringe man mano che i massi si ingrandiscono, questo perché le forzanti esterne aumentano e quindi non posso avere incertezze sul loro comportamento. In cava quindi viene dato il peso nominale (M_50) e il range sul quale la cava può lavorare. Sotto si vede come si restringe il range al variare della massa.

Il limite è posto a 20 tonn. perché in cava difficilmente si riescono a produrre massi di pesi maggiori, in questo caso non si usano più i massi naturali ma quelli artificiali, essi non hanno problemi di grading perché non si ha variabilità sulla dimensione della massa e si è in grado di produrli tutti uguali. La scelta fra massi naturali e artificiali dipende dalla disponibilità del materiale (massi naturali con massa mediana superiore ai 10 000 kg sono difficilmente reperibili in sufficiente quantità), da fattori estetici e ovviamente da valutazioni di carattere economico. Dal punto di vista commerciale sono definite delle categorie di massa, queste categorie sono utili per le stime di spesa:

Impiegando questo tipo di categorizzazione (Narrow- grading) è possibile ottenere mantellate sufficientemente chiuse (vuoti pari al 40%), adeguatamente permeabili (dissipa la forza dell’onda grazie ai moti di filtrazione, in caso contrario possiamo avere dannosi fenomeni di risalita) e agevolmente costruibili. Definita la dimensione del masso (diametro), rimane il problema del computo ove vanno definiti: - Spessore della mantellata, in funzione del numero di strati di un coefficiente di posa (quanto aumenta l’impaccamento se metto più layer) e dalle caratteristiche del masso.

-

Densità di posa in opera dei massi per m 2: nota la pendenza della mantellata e noto lo spessore si riesce a definire quanti massi sono presenti per metro quadrato. Così facendo possiamo sapere quanti massi mi servono per l’opera e quindi è possibile fare una stima del costo (

ρs corrisponde al diametro): se moltiplico M

la densità di posa in opera per metro quadrato N a per i metri quadrati della mantellata si ottengono il numero degli elementi necessari

Tabella 3: elementi artificiali più diffusi, in genere non sono armati e sono realizzati tramite casseri specifici.

Le diverse forme dei massi derivano da performance di resistenza, gli elementi non sono armati per limitare le operazioni e debbono resistere sostanzialmente per il loro peso per e non per flessione o torsione, gli elementi indicati con ® sono ancora sotto brevetto. Quello più comunemente utilizzato è il tetrapode assieme ai cube e ai parallelpiped block. Per ogni elemento generalmente vengono fornire delle tabelle dimensionali in funzione del peso nominale e del volume (in questo modo sappiamo quanto dobbiamo spendere!), coi tetrapodi si arriva tranquillamente alle 50 T; massi artificiali richiedono diverse tipologie di stime sul prezzo che possono essere ricavate in funzione dei volumi riportati in tabella. La tabella di K D può essere utilizzata non più in progettazione ma in verifica, in base al danno subito dalla diga, non solo l’altezza d’onda avvenuta ma anche il reale K d che si sarebbe dovuto impiegare se la diga fosse stata progettata male. In alternativa può essere impiegate anche a valle del progetto se si vuole ammettere un danno più elevato. Fino alla fine degli anni ’70 si utilizzava l’altezza d’onda significativa H s =H 1 , non era appropriato perché i livelli di 3

danneggiamento erano diversi rispetto a quelli previsti, l’opera si danneggiava più del previsto perché Hudson in laboratorio usava un moto ondoso regolare. Perciò nel 1984 si suggerisce, sempre nella formula di Hudson, di impiegare l’altezza d’onda massima attesa H 1 , così i risultati della formula di Hudson miglioravano, Tuttavia 10

quanto acquistiamo i dati, l’elaborazione del segnale del tempo non fornisce le altezze che ci servono , ci danno solo valore di altezza d’onda significativa. A partire dalla distribuzione di Rayleigh possono però ottenere l’altezza d’onda massima moltiplicando quella significativa per 1,27. Oggi la formula di Hudson (nemmeno quella corretta) non si usa più, Van der Meer grazie ad una strumentazione più adeguata e con esperimenti più complessi (caratteristiche delle onde in relazione alle caratteristiche della mantellata che tengono conto dell’interazione diga-onda) ottenne alla fine degli anni ’80 delle relazioni progettuali in cui si individua il numero di stabilità ( H s /Δ D n 50 ¿ espresso in funzione di grandezze simili ma più comprensibili rispetto a quelle fornite da Hudson. In altre parole, considera un moto ondoso irregolare.

Nelle formule sopra si ha: -

H s : altezza d’onda significativa H s o H 1

-

Dn 50: diametro medio degli elementi Δ: rapporto fra la densità del masso e dell’acqua a cui viene sottratto 1 (solitamente è pari a 1.65) S: grado di danneggiamento, corrispettivo di K D di Hudson

3

In particolare, VDM aggiunge la porosità della mantellata P, il numero di onde attese N (ipotizzo che in una mareggiata ci siano un numero di onde, vedremo più avanti come sitmarlo) e il parametro di Irribarren ξ m (caratteristiche delle onde in relazione alle caratteristiche della mantellata). La porosità venne inserita perché l’influenza della porosità pesava parecchio nel corso degli esperimenti, il numero di onde che insistono sul paramento della mantellata venne introdotto perché nel corso della mareggiata la persistenza delle onde gioca un ruolo fondamentale nel danneggiamento (una sorta di stressa a fatica). Quest’ultimo dato si ottiene a partire da dati relativi alla climatologia del posto: durata delle mareggiate, periodi caratteristici delle onde che insistono sulla struttura, da qua dividendo la durata della mareggiata per il periodo e ottenere il numero di onde all’interno della mantellata. Il parametro di Irribarren è fondamentale per definire lo stato dell’onda che si frange sulla mantellata (stato di frangimento), in funzione del valore di questo numero si identifica un frangimento plunging o surging. La discriminante è definita da un numero di Irribarren critico. Vediamo ora gli elementi necessari per definire ogni parametro Per quanto riguarda la permeabilità P, essa fondamentalmente dipende da come è costruita la diga: a seconda della modalità di costruzione della diga vi sono diverse porosità. Tutte le dighe di protezione ricadono quasi sempre nel caso b (P=0,4), valore comunemente utilizzato nella progettazione.

Questa immagine aiuta anche a capire, nel caso (b), lo spessore dei vari strati: a partire dal diametro della mantellata armor ottengo il diametro dello strato filtro ( D filter n 50 =0,5 D n 50 ¿ . In particolare, il filtro va inserito nel caso in cui core D filter n 50 ≫ D n 50 . Il tout -venant presenta infatti elementi che vanno da 1 Kg a circa 1 T, all’incirca questo corrisponde a

60-70 cm di diametro, a questo punto se il diametro del filtro è compreso fra i diametri possibili del nucleo non abbiamo necessità di uno strato filtro perché raggiungiamo già quel diametro nel nucleo , se invece il diametro dello strato filtro è molto maggiore di quelli del nucleo allora lo strato filtro serve. Attenzione, nel caso di elementi molto grossi potrebbero servire più strati filtro: tanti strati filtro fino a che non si arriva ad uno strato filtro con diametro che ricade nel diametro del nucleo. Solitamente le dighe hanno porosità 0,4, mentre le opere di protezione hanno circa porosità 0,6 perché non presentano un nucleo. Per quanto riguarda il frangimento bisogna impiegare il parametro di Irribarren

sm è la ripidità fittizia dell’onda e corrisponde al rapporto fra l’altezza d’onda e la lunghezza d’onda al largo (profondità infinita) calcolata col periodo medio:

In particolare, L0 m:

Questo parametro (relativo all’onda di progetto) va confrontato col valore critico del parametro che fa da transizione fra i due fenomeni:

Col fenomeno del plunging gran parte dell’energia del moto ondoso viene dissipata per frangimento a causa della turbolenza provocando un getto che si muove dall’alto verso il basso che impatta sulla parte iniziale della mantellata . Col frangimento di tipo surging l’onda non frange ma tende a gonfiarsi e risalire sulla pendenza che si trova davanti, questo tipo di frangimento esercita forti azioni di trascinamento sugli elementi della mantellata, tende quindi a

scalzare i massi verso l’alto (forze di galleggiamento più lama d’acqua che risale facilitano lo spostamento dei massi). Fra i due è infatti il frangimento surging più pericoloso. Altro parametro importante per valutare i valori di progetto è il numero di stabilità,

All’aumentare del numero di Irribarren il numero stabilità diminuisce: fissata infatti l’altezza d’onda serve un diametro più grande per soddisfare la condizione di stabilità. A partire dai grafici sottostanti si vede l’andamento del numero di stabilità, in ascissa c’è Irribarren e nelle ordinate numero stabilità il quale diminuisce e risale, il minimo si ha nella transizione fra i due frangimenti. Quindi la condizione migliore è il frangimento plunging mentre surging presenta criticità più spinte, al valore critico di Irribarren corrispondono le condizioni più onerose nella progettazione della struttura.

Figura 5: Porosità = 0,5, numero di onde N=3000, pendenze differenti della mantellata (pallini pieni, vuoti, quadrati…)

I risultati nei grafici sono stati ottenuti per diversi valori di pendenza e sono stati valutati i gradi di danneggiamento in funzione del parametro s, essi sono proporzionali a tale parametro quindi per s=2 si ha inizio del danneggiamento e per s=8 si ha failure completa. Si possono poi definire le curve per diversi comportamenti, ad esempio nell’immagine sotto è espressa l’altezza d’onda significativa per diametro nominale di 1 m., a seconda del livello di danneggiamento s l’altezza d’onda significativa cresce: a diametro fissato il livello di inizio di danneggiamento si ha per altezze di 3-4 m a seconda della modalità di frangimento e man mano che l’altezza aumenta si avranno livelli di danneggiamento elevati

Si può fare lo stesso per quanto riguarda la porosità, a seconda della porosità il numero di stabilità cambia (fissato un danneggiamento intermedio, s=5). Se aumento la porosità la diga resite ad altezze d’onda maggiori, l’interazione dei flussi all’interno della mantellata dissipa meglio l’energia delle onde rispetto ad una diga impermeabile (P=0,1).

Diverso è il caso di elementi artificiali, che come detto si impiegano nel caso servano massi molto grossi. In questo caso la funzione di danneggiamento viene sostituita dal numero di elementi spostati in una fascia di larghezza pari al diametro nominale dell’elemento, il parametro identificato da questo rapporto viene definito N od :

Questo parametro è legato al parametro S (grado di danneggiamento):

Queste relazioni sono ovviamente valide all’interno delle pendenze indicate applicate negli esperimenti. I massi artificiali possono avere pendenze più marcati rispetto a quello naturali, essi sono quindi preferiti rispetto a quelli naturali: 1. Pesano di più di quelli naturali. 2. Il peso permette di posizionarli su pendenze più ripide che coinvolgono quindi meno materiale in quanto i volumi coinvolti nella realizzazione della diga sono minore, inoltre più la diga è ripida più servono materiali pesanti. 3. I massi artificiali resistono di più di quelli naturali su pendenze ripide perché sono soggette a minori forze di rotolamento grazie ad azione di inter-locking (legame per forma). Elementi artificiali: Cubo, fine ‘800

Ove: -

N s = numero di stabilità N od = grado di danneggiamento ≤ 2

-

N Z = numero onde sm = ripidità fittizia dell’onda

Ovviamente N od si progetta per avere un danno maggiore di 1 (solitamente circa 2), per non avere delle condizioni di costruzione troppo stringenti. A parità di lunghezza d’onda servirebbe un diametro molto elevato per mantenere condizioni di danneggiamento nulle: diametro circa 2 volte più grosso che significa un peso 8 volte maggiore (vedi immagine sotto).

Solitamente impiegato nel caso di: -

-

Onde non frangenti, quando parliamo di condizioni non frangenti ci si riferisce alla onde prima della riduzione dell’infrastruttura, si calcola la condizione di frangenza o meno come se la diga non ci fosse in corrispondenza della sezione del piede della diga. Doppio strato Pendenza parecchio alta, 1:1.5. Se si volesse fare una pendenza differente bisognerebbe effettuare degli esperimenti con pendenza richiesta perché la relazione è valida solo per la pendenza indicata Quando bisogna raggiungere pesi elevati, questo ovviamente provoca problemi di movimentazione (grandi mezzi)

Essi sono stati introdotti a fine ‘800, sono elementi robusti e compatti (difficile si rompano e si spacchino a metà, grosso problema per gli elementi che costituiscono le dige perché l’elemento diminuisce il suo peso), sono anche facili da costruire. Elementi artificiali: tetrapodi, anni ‘50

La relazione è molto simile alla precedente con la differenza che:

N od ≤ 1,5 Elementi molto usati perché hanno elevato grado di inter-locking, inoltre se posizionati random presentano una grande scabrezza della mantellata che contrasta molto bene fenomeni di tracimazione (quando l’onda surging risale sul paramento della mantellata può passare oltre il coronamento della diga). Come nel caso precedente: -

Impiegato nel caso di onde non frangenti Impiegato nel caso di doppio strato Formulazione valida nel caso di pendenze pari a 1:1.5

Introdotto da una società francese negli anni ’50, inizialmente posto sotto brevetto, l’elemento non fu molto impiegato. Oggigiorno è molto impiegato non solo perché l’elemento non è posto sotto brevetto ma perché anni di impiego hanno messo in luce affidabilità e versatilità di questo elemento. Può capitare tuttavia che nelle gare di appalto per la realizzazione di talune infrastrutture venga indicato il tipo di elemento da impiegare così da testare anche unità artificiali nuove e più recenti. Nel caso in cui si posizionano questi elementi nella zona delle onde frangenti (più sottocosta, per strutture radenti costa) in corrispondenza di basse profondità al posto dell’altezza d’onda significativa si impiega l’altezza d’onda con probabilità di superamento del 2%, H 2 %=1.4 H s perché nella zona dei frangenti la distribuzione di Rayleigh non vale più (non siamo più nel caso di onde regolari): il fenomeno del frangimento è una specie di filtro, esso “taglia” le altezze più alte e solo le onde frante più alte sono in grado di arrivare alla struttura. Nella zona dei frangenti, essendo l’onda franta, essa genera molta più spinta e si potrebbero avere dei picchi più elevati. Questo elemento ormai è molto standard e viene prodotto senza particolari problemi. Nel caso in cui non si dispongano di gru ad hoc, in testa al tetrapodo può essere presente un ferro che permette il posizionamento dell’elemento. [MANCA TUTTA LA LEZIONE 13]: slides 30 – 40 -> 2021/2021 lec.14 min. 9.57 Elementi artificiali: Dolosse Elementi artificiali: Accropode Elementi artificiali: Core-loc Elementi artificiali: Antifer Resistenza del calcestruzzo: fenomeni di usura Quando si realizzano massi artificiali vi sono influenze in termini di durata e resistenza del cls. Sui pezzi artificiali vi sono diversi tipi di carico: -

-

-

Carichi statici: dovuti all’impaccamento degli elementi, gli elementi sottostanti sono schiacciati Carichi dinamici: dovuti alle onde o Carichi di impatto: che possono portare al danneggiamento degli elementi, le unità si dislocano all’interno della massicciata, dovuti anche al posizionamento degli elementi o Carichi Pulsating: che si ripetono nel tempo Carichi di abrasione: dovuti a grande movimentazione di elementi più piccoli quali sabbia e ciottoli Carichi termici: le strutture marittime sono realizzate a diverse latitudini, le escursioni termiche possono essere significative (in alcuni casi anche sotto lo zero) e portare a cicli di gelo e disgelo tali provocare fratture e deterioramento del cls. Se la temperatura è elevata si ha una proliferazione degli organismi marini che possono rovinare la superficie del cls. Carichi chimici: per via di fenomeni di evaporazione significativa (alte temperature ed umidità) il consolidamento del mix potrebbe essere differente rispetto a quello di progetto.

In ambito marino le basse temperatura possono portare a rottura fragile negli acciai, mentre i cicli di gelo e disgelo possono portare e rotture a scaglie sulla superficie degli elementi (sia pezzi della mantellata che cemento armato), per questo motivo il copriferro deve essere adeguatamente studiato così come va ben conosciuto l’ambiente in cui si va ad operare dal punto di vista fisico-chimico. Sempre in relazione all’usura del cls vi possono poi essere fenomeni di abrasione, essi sono dovuti al trasporto dei sedimenti (spiaggia, ghiaia) presenti in loco e inficiano sulla resistenza del ferro e degli strati superficiali del cls. In questo caso si impiegano mix con elementi resistenti e di pezzatura adeguata. Un altro aspetto importante è legato agli urti tra massi, soprattutto durante la posa. Essendo i massi caratterizzati da elevato peso è necessario che le resistenze a compressione da urto sia sufficientemente elevate, solitamente essendo la costruzione di dighe molto onerosa, si cerca di impiegare elementi semplici senza complicazioni (senza armature, fibre di rinforzo…) costruttive in modo da rendere tutto il più semplice ed economico possibile . Come

mitigazione si cerca di ridurre al minimo la possibilità di urto fra i massi posandoli nella maniera più delicata e attenta possibile, quando si realizza una diga a gettata i sassi vengono quindi posti con cura uno alla volta. Vi sono poi altri aspetti critici legati alla chimica. In acqua marina gli alluminati del cls reagiscono coi solfati dando vita ad un solfoalluminato di calcio idrato noto come ettringite, questo composto fa aumentare il volume all’interno del cls che porta le parti più esterne a gonfiarsi e, senza un’accurata manutenzione o precauzioni adeguate, porta il calcestruzzo a sfaldarsi e ad esporre il copriferro (nel caso di strutture in c.a) o al deperimento degli elementi di mantellata. In aggiunta, si ha anche una diminuzione del peso efficace dell’elemento, questo fenomeno avviene maggiormente in acque calde e nel caso di acque inquinate (sostanze acide sono aggressive per il cemento). Per ovviare a questo problema si utilizzano cementi pozzolanici in quanto la calce libera contrasta la formazione di ettringite. Per valutare la resistenza agli urti sono effettuati dei test di caduta di un elemento su altri elementi

Questo test viene fatto per verificare che gli elementi unitari non perdano eccessivamente massa nel caso di caduta durante la posa in opera.

Figura 6: classico danneggiamento dovuto alla formazione di ettringite.

Opera al piede: Fino ad ora abbiamo parlato della mantellata, vediamo ora il dimensionamento degli altri elementi della diga. L’opera al piede serve per dare supporto alla base della mantellata (evitare fenomeni di scivolamento verso il fondale e scalzamento della mantellata). Essendo costituita da un ammasso di elementi pesanti viene realizzata con un dimensionamento alla VDM: definito il numero di stabilità esso viene espresso in funzione della profondità sopra l’opera al piede h b e del numero di danneggiamento N od . Gli elementi dell’opera al piede sono generalmente più piccoli di quelli della mantellata soprattutto se essa si trova molto a fondo nell’acqua (più siamo a fondo meno le onde sono pericolose), a volte è possibile (se profondità consistenti) realizzare un’opera al piede a metà altezza della diga, così facendo risparmio e non uso massi della mantellata fino al fondale . Quando invece l’opera al piede è vicina alla profondità di influenza dell’altezza d’onda massima (i.e vicino alla superficie libera, solitamente essa è pari a una volta e mezzo l’altezza d’onda) si tende a far coincidere i materiali dell’opera al piede con quelli della mantellata, parimenti se utilizzassi l’espressione di cui sotto potrei trovare un’opera al piede molto più leggera e da realizzarsi con elementi molto piccoli rispetto a quelli della mantellata.

Questa equazione (una retta) è stata ottenuta a partire da una regressione sui punti sperimentali relativi al grado di danneggiamento e al numero di stabilità in funzione delle condizioni di profondità e del diametro nominale degli elementi.

N.B: nuovamente va sottolineato che le formule fornite valgono esclusivamente per le condizioni che sono state riprodotte in laboratorio, se l’ambito di applicazione di una formula cambia si rendono necessarie nuove sperimentazioni che riproducano le condizioni per le quali si vuole ricavare una nuova formula. Gli esperimenti possono essere condotti nel caso in cui la situazione nella quali si sta operando non sia ordinaria e richieda di essere riprodotta in ambiente artificiale per essere meglio studiata. Oggigiorno si utilizza una più recente relazione di VDM (1998), che sostituisce quella del 1995 o meglio la modifica. La relazione precedente aveva un problema di tipo analitico: se si inverte l’equazione in funzione del diametro nominale si ottiene una funzione somma di due elementi, uno positivo e uno negativo.

Questa formulazione poteva fornire valori di diametro negativi per alte profondità, essa pertanto risultava valida solo per profondità limitate. Tale problematica emerse quando le profondità di installazione di questo tipo di dighe aumentarono significativamente, venne quindi rifatta l’analisi sperimentale ipotizzando che si possano raggiungere profondità più elevate.

Figura 7: regressione che porta alla formulazione del 1998

Le formulazioni per questo tipo di costruzioni si basano su esperimenti condotti in laboratorio, la proliferazione di questo tipo di esperimenti, il passare degli anni e delle realizzazioni porta a modificare gradualmente le formulazioni che vengono ottenute da questi esperimenti, VDM ad esempio nella sua prima formulazione tenne conto solo dell’altezza sopra l’opera al piede (1995):

Successivamente, nello stesso anno, si accorse che però era anche importante impiegare la profondità indisturbata:

Qualche anno dopo (1998), raffinò la formula:

Tutto questo venne ricavato per massi naturali! Contemporaneamente qualcun’altro si pose il problema dell’utilizzo di massi artificiali, se faccio una diga in cubi, essendo essi molto pesanti meglio che usi anche quelli per l’opera al piede (sono più pesanti di quelli naturali, li schiaccio). Quel qualcun altro sono Burcharth e Liu (1995):

Figura 8:opera al piede composta da blocchi di cls.

 

Osservazione 1: i massi naturali si pongono sempre in doppio strato, i cubi in singolo Osservazione 2: sono state elaborate formule con massi naturali perché se ho alte profondità non ho forze elevate sull’opera al piede quindi posso usare massi naturali, se invece essa è vicina alla superficie libera è possibile che le onde siano filtrate dal processo di frangimento (non arrivano onde grosse alla diga).

Negli anni si sono ulteriormente affinate le formulazioni, in particolare Van Gert e Van der Werf stanno aggiornando in maniera metodica le formule a disposizione che ormai hanno quasi una trentina d’anni in modo da considerare anche le caratteristiche delle onde e la loro interazione con le strutture, questo perché ora si riescono a vedere molte più cose e molto meglio (in termini di strumentazioni) ed inoltre l’esperienza gioca un ruolo fondamentale in questo come negli altri campi dell’ingegneria. Più le problematiche sono particolari più affinate saranno le formulazioni da fornire. Negli ultimi anni anche per quanto riguarda l’analisi progettuale delle opere al piede vi è stato uno sviluppo che ha portato ad individuare formulazioni relative a due differenti condizioni di mare precedentemente definite: -

Deep water conditions (profondità infinite) Shallow water (acque basse)

Queste due condizioni sono state rimappate sulle formule di VDM relativamente alla mantellata introducendo due parametri rappresentativi del caso di plunging waves (C p) e di surging waves (C s).

Figura 9: da notare che acque basse dove vi è frangimento, l’altezza d’onda di progetto corrisponde all’altezza d’onda al 2% che è relazionata con l’altezza d’onda significativa grazie alla distribuzione di Rayleigh.

Ora ci si chiede quale può essere l’effetto della berma (che non è altro che un’opera al piede più lunga e intermedia) nella progettazione della mantellata. La berma è un elemento che viene costruito nel profilo della mantellata ed è una terrazza orizzontale costruita per dissipare l’energia dell’onda, in prossimità di essa l’onda tende a instabilizzarsi, frangere e arriva con un’energia diminuita. Questo significa che il diametro nominale della porzione di diga sopra la berma può avere diametro nominale ridotto la cui diretta conseguenza è un risparmio del materiale impiegato

Figura 10: La berma (verde) riduce l'energia dell'onda.

Se si considera l’inserimento di una berma viene impiegato un parametro γ che relaziona l’altezza d’onda sulla berma e sul piede della diga, esso è tendenzialmente funzione delle caratteristiche della berma. Quando la berma non è presente esso è pari a 1, viceversa se si adotta una berma è diverso da uno. Applicando il teorema π per condurre un’analisi dimensionale si nota che le grandezze presenti sono di tipo geometrico (la grandezza scala base è una lunghezza) e che γ è funzione di 4 variabili accoppiate fra loro ed è perciò possibile passare da una funzione di 4 variabili ad una in 2 variabili a-dimensionali. Si riduce così la complessità dell’equazione e γ varia all’interno di uno spazio bidimensionale e tramite la realizzazione di una serie di esperimenti si arriva ad una formulazione di γ dipendente da due coefficienti esponenziali b e c .

Tale formulazione è caratterizzata da dei validity range in base agli esperimenti che sono stati realizzati

Figura 11: IN altre parole, come si vede dal grafico sotto l’equazione di sopra è quella proposed ed è migliore sia di VDM (1998) che di Van Gent (2013). Quindi se uso quella formula tengo bene in conto dell’effetto della berma

Nuovamente, si può valutare graficamente l’affidabilità di tali relazioni comparando il grado di danneggiamento rapportato al numero di onde teorico e quello osservato come riportato nell’immagine sottostante.

Come si nota la relazione proposta migliora notevolmente la relazione di VDM, la quale era conservativa (dava valori più alti) o della relazione di Van Gent che non era conservativa (dava valori più bassi). Nuovamente se il progetto è specifico e particolare è meglio realizzare delle sperimentazioni ad hoc per il progetto designato. In funzione del rapporto fra le larghezze della berma e della lunghezza d’onda (

LB ) e in funzione delle profondità ( LW

hB ) si possono ottenere dei grafici bidimensionali all’interno dei quali vengono confrontate le tre formulazioni: hT

-

Van der Meer Van Gent Formulazione proposta

Sull’asse delle ascisse viene riportato il rapporto

LB mentre sulle ordinate il rapporto fra il diametro medio degli LW

elementi della formulazione (proposta o di Van Gent) e il diametro medio della formulazione di VDM. Di conseguenza nei grafici sotto riportati la formulazione di VDM fornisce un’ascissa costante di valore unitario, si nota quindi come la formulazione proposta si ponga in posizione intermedia fra la formulazione di VDM e quella di Van

hB è pari a 0,5. La distanza fra la hT linea continua (formula proposta) e quella tratteggiata (Van Gent) può essere definita come ΔD , questo valore ci Gent. Nella figura sottostante viene riportato un grafico nel quale il valore fissato di

dice come la formula di Van Gent non sia conservativa (sempre sotto alla linea continua) mentre quella di VDM sia conservativa (sempre sopra alla linea continua, valore costante pari a 1)

Nella seguente tabella viene riportato un esempio comparativo relativo alle differenti formulazioni, si nota che la formula proposta nel 2018 è un’ottimizzazione perché lo stadio giusto è posto fra i due estremi: VDM, una progettazione basilare e Van Gent, una progettazione certamente ottimizzata ma poco cautelativa che non tiene in conto l’interazione della berma con il moto ondoso.

L’opera al piede può esser realizzata in diversi modi: -

Opera fondata in prossimità del fondale, su una spiaggia di materiale sabbioso in fondo alla mantellata.

-

Nel caso si abbiano fondali rocciosi la mantellata può essere appoggiata direttamente sul fondale senza l’impiego dell’opera al piede perché la roccia garantisce caratteristiche di stabilità e appoggio tali da non necessitare dell’inserimento dell’opera al piede.

-

Nel caso di profondità significative, l’opera al piede può essere posizionata ad una profondità intermedia e nella parte più profonda mettere massi con pezzature più piccole.

-

Nel caso di fondali più bassi vi è continuità di materiale fra mantellata e opera al piede.

Vi possono essere diversi approcci costruttivi per l’opera al piede: 1. È possibile realizzare uno scavo all’interno del quale la mantellata prosegue, l’opera al piede si trova quindi al di sotto del beach level (fondale). Questo perché, per questioni morfodinamiche, all’interfaccia fra una mantellata con pezzature molto grosse e il fondale con diametri molto minori (quale sabbia) a causa del differente comportamento di mobilizzazione morfodinamica dei due elementi se non si effettuasse lo scavo alla base della mantellata si generebbe uno scavo. La profondità dello scavo è studiata per prevenire l’esposizione della mantellata.

2. Si può anche pensare di realizzare un’opera al piede rovesciata posizionata internamente alla spiaggia. In questo caso la profondità dell’opera al piede è legata alla lunghezza complessiva.

3. Si può anche pensare di rafforzare l’opera al piede con materiale di riempimento posizionati esternamente alla spiaggia a seguito di possibili scalzamenti.

Altre tipologie di opere al piede sono le cosiddette rip-rap o protezioni radenti, esse sono realizzate tramite blocchi di cemento solidali fra loro, esse non sono realizzate per dighe ma per opere più radenti alla costa (onde meno intense), anche perché essendo così lisce le onde potrebbero risalire molto facilmente.

Strato Filtro: Strato inserito fra la mantellata principale ed il nucleo, nell’immagine sotto riportata al posto del beach material si ha il nucleo e sono presenti inoltre ben 3 strati filtro, questo perché il fondo è sabbioso ed il materiale è molto fine. Solitamente nelle opere ordinare sono presenti solamente 3 strati: mantellata, filtro (al massimo due strati) e nucleo.

Vi sono poi diverse immagini che aiutano a capire la fase realizzativa. Per prima cosa si realizza il nucleo con pendenze 1:1 e con materiali che vanno da 1 kg fino a 1 tonn, esso viene creato semplicemente scaricando il materiale col camion a partire dalla costa.

Si procede poi alla realizzazione del filtro. Conoscendo la quota a cui bisogna arrivare, a partire dalla pendenza richiesta (es. 1:2.5) con una boa zavorrata si individua il punto fino a cui bisogna arrivare . Nuovamente si hanno degli intervalli di peso degli elementi che costituiscono questo strato filtro.

Questo strato viene realizzato tramite una gru che posiziona i pietroni. Allo stesso modo viene realizzata la mantellata, con la differenza che i massi impiegati sono di dimensioni maggiori. Un altro accorgimento riguarda la parte di testata, in questa zona infatti la pendenza è più dolce (1:3) perché come vedremo questo elemento è più delicato e ha bisogno di una stabilità più forte che si raggiunge con una pendenza minore

Figura 12: esempio realizzativo dove si possono individuare i differenti strati.

Come visto in precedenza lo spessore dello strato filtro dipende dalle caratteristiche del diametro della mantellata e del livello di porosità (solitamente P=0,4).

In questo caso fissato il diametro della mantellata va verificata la possibilità di reperire i materiali del core in base al peso che si calcola: ad esempio fissato il diametro della mantellata pari a 3m si ottiene un diametro del nucleo di 0,4 m, il che corrisponde ad un peso di 160 Kg in linea con le limitazioni individuate e coerente con un tout-venant.

Vi sono poi altri schemi che a partire dal peso dell’elemento della mantellata ci permettono di ottenere tutte le altre dimensioni per una progettazione preliminare. Si nota che il peso della mantellata può essere dimezzato in corrispondenza di una profondità pari a -1.5 volte l’altezza d’onda e che può diventare 1/10 o 1/15 in corrispondenza di una profondità inferiore a -2 volte l’altezza d’onda. Inoltre, si vede come nella parte interna il peso può essere ridotto molto più velocemente rispetto alla parte prospiciente al mare aperto. Tutto questo in un’ottica di risparmio del materiale impiegato. Il grading size ci dice l’intervallo di confidenza per ogni strato.

Stima del costo della diga in funzione dell’altezza d’onda di progetto H d :

Quando si realizzano dighe a gettata (o dighe a parete verticali) consistenti, non vi è tanto un problema relativo alla concezione, alla manutenzione o alla realizzazione di un’opera portuale quanto un problema legato al costo iniziale che un’opera di questo tipo porta con sé. Per questo motivo questo tipo di opere (o più in generali i porti), che sono infrastrutture strategiche per l’organizzazione logistica di una città o addirittura di un intero paese, sono finanziati principalmente da enti pubblici. Testata delle dighe: Dopo a ver visto la pezzatura del ramo principale della diga (trunk) va analizzata ora la zona terminale della diga (head), la testata. Questo elemento è particolarmente delicato perché è la parte della diga che subisce la maggiore esposizione al moto ondoso e alle sue azioni: quando le onde arrivano sul tratto principale o nella porzione tratteggiata trovano la massima pendenza e quindi la sezione fatta apposta per resistere, nella zona più esposta le onde passano tangenti e trovano prima una sezione della diga in salita e poi in discesa, sorgono quindi due problematiche.

1. Nella parte in salita il moto ondoso è contrastato dalla gravità dei massi, mentre nella parte in discesa è concorde al moto di scivolamento dei masi e quindi agevola il loro spostamento, un bel problema destabilizzante. 2. Nel momento in cui l’onda interagisce con la testata si ha un fenomeno di rifrazione, l’onda tende a concentrare energia nel punto proprio a causa della rifrazione.

Per contrastare queste problematiche si realizza un ingrossamento della struttura e una diminuzione della pendenza. Dall’immagine sottostante relativa ad un esperimento in laboratorio si capisce chiaramente la zona della testata che subisce maggiormente l’azione delle onde.

Figura 13:mantellata, struttura al piede (arancione più marrone), strato giallo=strato di transizione

La zona in rosa è critica perché subito a tergo della testata è presente il canale di accesso (spesso non è molto largo a causa della presenza della diga di sottoflusso), le imbarcazioni e le navi a tergo della diga passano attraverso di esso e con dei massi in acqua diminuisce il pescaggio. Nel caso della foto, l’esperimento ha portato ad una variazione degli elementi costituenti la testata, sono stati infatti inseriti in corrispondenza del piede della struttura dei massi artificiali quali antifer e cubi al posto dei massi naturali.

Figura 14: si vede come è cambiato l'elemento di tenuta dell'opera al piede

Questo esempio ci fa capire come, nel caso di costruzioni particolarmente critiche, sia necessario realizzare degli esperimenti in laboratorio per capire come risolvere il problema. Visto che gli esperimenti possono risultare costosi, sono stati fatti degli esperimenti per avere alcune indicazioni di massima relativamente al comportamento della testata per diversi elementi unitari. Nella tabella sottostante emerge che il rapporto fra il peso della testata e quello del tratto principale deve essere sempre maggiore di 1 (W H >W T ), una media brutale su tutte le esperienze porta a dimensionare la testata con un peso che è il doppio di quello del corpo della diga. L’accorgimento di diminuire la pendenza va in questa direzione: diminuire la pendenza significa di diminuire il peso (ma se diminuisco la pendenza e devo arrivare ad una stessa altezza non dovrei impiegare più materiale?) e quindi magari non serve proprio raddoppiare il peso. Secondariamente, per raddoppiare il peso servono mezzi di movimentazione più potenti rispetto alla parte principale della diga il che può portare a problemi realizzativi non indifferenti, perciò la crane capacity deve essere più che doppia nella realizzazione della testata rispetto a quelle impiegate per la parte principale della diga. Un altro problema legato alla questione del peso è la block size, una pezzatura eccessivamente differente potrebbe portare alla mobilizzazione dei massi più grossi verso quelli più piccoli e danneggiarli, la transizione deve essere perciò graduale.

Sono stati poi condotti anche esperimenti per capire la dinamica del danneggiamento suddividendo la testata in settori di differenti colori. Si potrebbe pensare di rinfoltire la zona indicata.

SI potrebbe anche pensare di studiare quale altezza d’onda comporta un certo tipo di danno (nell’immagine sopra si registrano i danni riportati per H s =13,4 m ad esempio, ma per H s =11,0 m non vi sono danni). Non esistono infatti modelli analitico-numerici in grado di risolvere problemi così complessi (infrangimento, cattura dell’aria all’interno di un fluido…) dal momento che si passa dalla scala dell’altezza d’onda a quella della filtrazione. Nel grafico sottostante viene operato un confronto fra la stabilità della mantellata, il trunk e la testata utilizzando cubi da 354 tonn. Si nota come l’altezza d’onda significativa è posta sulle ascisse e sulle ordinate la percentuale di massi spostati (i.e danneggiamento D). A parità di altezza d’onda (= di moto ondoso) e a parità di massi impiegati si vede chiaramente come la testata risulti la porzione di diga maggiormente danneggiata. In particolare, essa riporta un danneggiamento maggiore nei punti appartenenti ai settori perpendicolari al trunk della diga.

Quindi qualitativamente il K D presente nella formula di Hudson della testa è circa il 50% di quello del corpo della diga, questo si pone coerenza con il rapporto dei pesi fra testata e corpo della diga. Un’altra soluzione generata in laboratorio porta ad aumentare la densità degli elementi di testata (da 2,40 a 2,80) senza aumentare le dimensioni geometriche:

DT D H W H >W T ρ H > ρT

Questa operazione risulta agevole se i massi sono artificiali. Quindi, ricapitolando. la zona individuata è particolarmente esposta e si possono effettuare le seguenti operazioni per rinforzarla: 1. Si possono inserire elementi più grandi, questo può dare problemi relativi ai lati di transizione (canali di passaggio?) e all’approvvigionamento (mezzi di movimentazione). 2. Si può diminuire la pendenza e avere pesi minori. 3. Si possono impiegare stessi elementi da un punto di vista geometrico ma con densità maggiore. Tutte queste esperienze hanno portato ad una formula progettuale relativa ad un numero di stabilità che tiene in conto delle caratteristiche geometriche della testa realizzata con cubi.

Ove: -

HS = numero di stabilità Δ Dn

( )

-

Dn = diametro nominale del cubo D% = grado di danneggiamento

-

Sop=

-

Δ solitamente è pari a 2.65

-

H0 H0 2 π = 7 L0 g T2

( )

Risposta idraulica dell’opera: Fino ad ora si è parlato di verifiche a stabilità (gli elementi non devono spostarsi), passiamo ora alle verifiche relative alla risposta idraulica dell’opera, essa corrisponde all’analisi dell’interazione fra la struttura e il moto ondoso: non solo la struttura deve resistere alle onde ma l’eventuale agitazione interna rimanente non deve creare pericoli, non solo agitazione interna ma anche, soprattutto, tracimazione. Si vuole quindi progettare l’infrastruttura per limitare al massimo questo tipo di eventi che sono potenzialmente pericolosi, questo tipo di progettazione tende a ottimizzare la progettazione che è stata fatta in sede di verifica di stabilità per rispettare i parametri di sicurezza idraulica imposti. Quando effettuiamo quest’analisi si considerano alcuni aspetti specifici problematici: - Run up e run down: risalita e discesa dell’onda nel piano della scarpata - Portata media tracimante (overtopping) - Trasmissione dell’agitazione: agitazione interna, parte del moto ondoso riesce a penetrare tramite tracimazione

-

Riflessione delle onde incidenti: la diga è un ostacolo e tende e riflettere le onde verso il largo, vedremo che questo è un problema.

Run up (RU) e run down (RD): Il primo corrisponde alla sopraelevazione rispetto al livello medio mare della quota cui arriva la risalita dell’onda sulla diga, questo accade quando arriva la cresta. Il secondo si ha invece quando il cavo dell’onda impatta sull’opera, esso corrisponde al massimo livello a cui riesce a scendere il livello dell’acqua rispetto al livello medio mare. Questi due fenomeni portano ad un’oscillazione verso l’alto e verso il basso del livello del mare e perciò la zona della mantellata compresa fra RU e RD è quella più sollecitata in quanto l’azione delle onde è continua in questa fascia. Solitamente il run up viene indicato come Ru 2 % perché le onde sono random, l’evento stesso è random e l’onda non arriva sempre alla stessa altezza di risalita, come tutte le altre grandezze progettuali viste fino ad ora è una stima statistica: fatta la pdf (cumulata) di tutti i RU prendo quella che ha la probabilità di superamento del 2%. Stessa cose per il RD ( Rd 2 %). Non siamo molto cautelativi perché questo tipo di eventi sono puntuali e nonostante questo possono mandare in crisi tutta la struttura, saremmo cautelativi se fosse riferito allo 0%, ma ciò porterebbe a costruire non solo muri eccessivamente alti, ma anche costosi e anti-estetici, se si ipotizzasse di avere portata tracimante nulla si avrebbe:

l R2u % ≅ 3 H s ≅ 3 ∙ 7=21 m→ Q OT =0 ↔h=21 m s

Tanto più è liscia, impermeabile e compatta la superficie tanto più saranno alte le quote di RU e basse quelle di RD, perciò creare una diga a gettata più scabra e ruvida possibile è a favore di sicurezza perché si ha una maggiore resistenza per il RU. Sotto sono riportati degli esempi realizzati con e senza muro di coronamento.

Figura 15: la figura con il muro di coronamento è simile al video della diga di Rapallo.

Quindi non solo è importante la porosità della mantellata ma anche la scabrezza. Questa fenomenologia è nuovamente stata studiata tramite esperimenti in laboratorio ove emerge che comunque fosse fatto l’esperimento si aveva una crescita lineare ed una parte costante, questi due tratti sono espressi in funzione dell’altezza d’onda significativa H S e del numero di Irribarren ξ (pendenza della mantellata/radice dell’altezza d’onda diviso la lunghezza d’onda,

ξ=

Sa H L

=

tan α H ) L

√ √

A seconda dei pedici che vengono impiegati il numero di Irribarren sappiamo a che lunghezza d’onda ci si sta riferendo: - Se il pedice è 0 significa che si ha profondità infinita - Se il pedice è p significa che ci si riferisce alla frequenza di picco Il grafico, come nei casi precedenti, è ottenuto a-dimensionalizzando la Ru 2 % e, come detto, si ha una porzione di grafico costante ed una porzione con andamento lineare che cresce in funzione del numero di Irribarren calcolato al largo con le grandezze del picco. Ad essere più precisi si è inserita la dipendenza da una costante γ e i risultati sono stati ottenuti per una certa scarpata impermeabile e di una certa inclinazione. Perciò, in linea del tutto generale: “il Ru 2 % è proporzionale ad un coefficiente γ per il numero di Irribarren ξ ” Il coefficiente γ dipende dalle caratteristiche della mantellata:

-

Scabrezza e permeabilità della scarpata Come arriva il moto ondoso (dritto o obliquo ad esempio) Effetto di bassa profondità di fronte alla diga Moto ondoso irregolare

Per una mantellata con attacco frontale, scarpata piena senza berma e mantellata di massimo 2 strati γ assume valori pari a 0,5, questo ovviamente mette a favore di sicurezza le mantellate scabre e porose dal momento che questo valore si dimezza il Ru 2 % rispetto al caso di mantellata liscia ed impermeabile. Quindi:

γ →1 se mantellata liscia ed impermeabile γ ≪1 se mantellata scabra e permeabile Per valore molto piccoli di γ gran parte dell’energia del moto ondoso viene dissipata in resistenze di attrito e in energia di flusso attraverso i pori della mantellata. Per questo motivo nella costruzione di dighe ed opere costiere in generale bisogna cercare di tendere a valori di γ più piccoli possibile. Spesso basta un γ =0,5 a volte possono crearsi delle problematiche che necessitano di disporre un γ minore di 0,5 perché vedremo che la portata di tracimazione è proporzionale al Ru 2 %, abbassando perciò la portata diminuisco problemi di tracimazione del massiccio di coronamento. Vi sono perciò diversi contributi che definiscono la costante γ :



γ r : roughness γ b : berm γ h : shallow (water di fronte alla diga) γ β : angle (angolo di attacco di fronte alla diga)

γ b: presenza di una berma

A partire dal profilo originale della berma (arancione) si individuano i due punti che danno un’altezza H s rispetto al livello della berma, questi due punti permettono di tracciare il profilo equivalente caratterizzato da una pendenza equivalente α eq ,questo valore ci permette di calcolare alcune quantità e tutti i calcoli necessari possono essere svolti come se la berma avesse questa pendenza equivalente. Perciò il coefficiente di riduzione dovuto alla berma è al rapporto fra il numero di Irribarren calcolato con la pendenza equivalente e quello calcolato con la pendenza normale(?)

In particolare, il valore α corrisponde alla pendenza della mantellata nel primo tratto prima che incontri la berma (i.e α 1), mentre il valore di d B corrisponde alla profondità della berma rispetto al livello medio mare.

Il valore di questo coefficiente è ovviamente minore di 1 perché la presenza di una berma limita la risalita del moto ondoso.  γ r : contributo della scabrezza della mantellata Questo contributo è funzione della porosità e della scabrezza dell’elemento. I valori di questo coefficiente sono tabellati perché calcolati in laboratorio, nella tabella è inoltre presente il range di validità di questi valori. I tetrapodi non sono presenti nella tabella, tuttavia permettono di raggiungere una scabrezza molto elevata (sicuramente il valore è minore di 0.5, probabilmente attorno a 0.4/0.35).

 γ h: contributo legato alle basse profondità al piede dell’opera Se il fondale del mare di fronte alla diga ha profondità contenuta, possono esserci fenomeni di frangimento di fronte alla diga che permette di dissipare energia e abbattere il Ru.

Nel caso di alte profondità ( H s 2 % =1,4 H s poiché si adotta una distribuzione Rayleigh) il valore di γ h tende a 1, nel caso di frangimento H s 2 % 1, quindi nel grafico se mi muovo verso destra abbiamo onde lunghe. L0 m

Quindi quello che abbiamo visto fin’ora in termini di risposta dell’opera nei confronti di Rd e Ru ci permette di calcolare la cosiddetta portata tracimante: quanta acqua passa oltre la diga durante gli eventi della mareggiata. In base ad analisi dimensionali (per a-dimensionalizzare la portata divido per

3 s

√ g H ) e del processo idraulico in analisi

si ha:

Si nota quindi che la portata tracimante a-dimensionalizzata è funzione di due elementi: 1. Ru 2 % 2. Rc : altezza di cresta, differenza fra il livello medio mare e il punto più alto della diga

Questa dipendenza funzionale individuata è quella base e più semplice (fig. sopra), nulla ci vieta di complicare lo schema e di ottenere relazioni funzionali nel caso di berme o di muri para-onde posto ad una certa distanza G (fig.sotto).

In ogni caso, in tutta la letteratura sviluppata su questi temi la portata (nel caso di dighe a gettata, per le dighe a parete verticale vedremo) è stata formulata nel seguente modo:

Nella prima equazione si ha:

R=

Rc , parametro di cresta a−dimensionale ¿ ) Hs

Inoltre, anche la Q delle due equazioni sopra è a-dimensionale, e i parametri a e b si valutano tramite regressione dei dati sperimentali. Anche in questo caso sono stati effettuati esperimenti di laboratorio e, anche in questo caso, le condizioni al contorno dell’esperimento sono fondamentali per definire i limiti di validità dell’equazione. In base al tipo di costruzione marittima sono fornite diverse formule per il calcolo della portata tracimante . Owen (1980-1982), il primo ad occuparsi di queste tematiche, realizzò esperimenti su superficie impermeabile scabra liscia e con berme. Dalla tabella si nota come alcuni autori abbiamo utilizzato come grandezze a-dimensionalizzanti altezza d’onda significativa e periodo o solo altezza d’onda significativa.

Per a-dimensionalizzare il valore di Rc vi sono diversi modi più complicati che tirano in ballo la ripidità d’onda.

N.B: nella tabella il termine Q indica il valore di portata a-dimensionalizzato della portata q

Q=

q √ g H 3s

Tutti i modelli visti fino ad ora relativamente al calcolo della portata derivano da sperimentazioni in laboratorio, essi sono pertanto modelli parametrici, modelli cioè che si ottengono facendo variare i parametri sperimentali. Questi modelli ci permettono di avere un’indicazione dell’ordine di grandezza della portata tracimante per fare delle valutazioni di ordine operativo o di sicurezza sul funzionamento della diga (vi sono dei livelli di sicurezza in relazione alla portata tracimante). Vediamo ora le relazioni più comuni sia per valutazioni di massima della portata tracimata che per capire su cosa si basano gli strumenti e gli approcci più sofisticati ed elaborati e come funzionano. Bradbury & Allsop (1988):

La portata adimensionalizzata è uguale al prodotto fra una costante a ed R−b (altezza di cresta adimensionalizzata) che viene espressa come prodotto di due elementi. In questa relazione si tiene conto anche delle caratteristiche dell’onda (tramite la pendenza dell’onda calcolata al largo con le quantità medie, s0 m). Nella sperimentazione questi due hanno analizzato 5 configurazioni di diga con configurazioni geometriche ben definite: a. Classico profilo di diga a gettata con muro paraonde completamente emergenti rispetto alla cresta della mantellata b. Classico profilo di diga a gettata con muro paraonde molto lontano dalla cresta della mantellata, se ho problemi di tracimazione una configurazione di questo tipo può aiutare a diminuire il volume di tracimazione c. Classico profilo di diga a gettata con muro paraonde parzialmente protetto dai massi della mantellata d. Classico profilo di diga a gettata con muro paraonde al livello della mantellata e. Classico profilo di diga a gettata con muro paraonde sottomesso al livello della mantellata Per cresta si intende il passaggio fra la porzione inclinata e quella orizzontale della mantellata.

Figura 16: La distanza 3D viene presa per ragioni di stabilità della struttura.

In funzione dei rapporti fra le grandezze G , H a , Rc e A si Bradbury e Allsop forniscono una tabella che permette di ricavare i valori da impiegare nella formula in esame nei relativi intervalli di validità. Tutto questo per una valutazione qualitativa dei valori del Ru sulla mantellata. Bradbury e Allsop (1988):

Questa formulazione rappresenta un’estensione del caso c (immagine precedente): mantellata che copre parte del massiccio di coronamento. Su questa geometria sono state realizzate prove su diverse pendenze e su diverse tipologie di massi. Cambiando le caratteristiche geometriche e fisiche della diga si hanno dei valori di portate tracimanti molto differenti fra loro. La relazione è la stessa di prima solo che sono stati realizzati maggiori esperimenti per il calcolo di a e b.

Pederesen & Burcharth (1992): Qua la portata tracimante è a-dimensionalizzata in modo diverso rispetto alle altre formulazioni e anche per quanto riguarda il gruppo funzionale esso risulta più complesso.

È presente infatti una dipendenza dal parametro a-dimensionale più complicata. -

Larghezza berma B Pendenza mantellata α Altezza di progetto H s

-

Altezza di cresta del muro Rc

-

Altezza di cresta della mantellata Ac

In questi esperimenti i test sono condotti non con un’onda ma con tante onde e perciò la portata tracimante è pari a:

Q=

∑ qi T tot

Di fatto, per semplicità nella raccolta dei dati durante l’esperimento, corrisponde ad una portata tracimante media. A tergo della diga è inserita una vasca in grado di ricevere la portata tracimante che viene in essa raccolta, nella vasca sono inserite delle celle di carico che ci dicono la forza esercitata in un punto (tramite l’allungamento della molla posso calcolare il volume tracimato, la forza in questo caso è il peso), a fine esperimento quindi sappiamo il numero di onde, il tempo totale e quindi la portata istantanea per metro lineare

q=

l 1 s m

[ ( )]

è pari a:

Q tot T tot

Se alzassi il muro paraonde in modo da non fare riempire la vasca (minimizzare la portata tracimante) si avrebbero però due problemi: 1. Alzando il muro la forza orizzontale generata dall’acqua aumenta ed è difficile stabilizzare un muro alto che contrasta una forza solo per attrito, non deve scivolare via. 2. L’altezza del muro non può essere infinita, Rc ha vincoli di altezza specifici molto limitanti in termini paesaggistici. A Genova sono ammesse quote fino a 8-9 m. Perciò emerge che la progettazione della diga ha una ricaduta a cascata dapprima sul Ru 2 %, in seguito sull’entità di Q e in ultima istanza sulla forza esercitata dall’acqua sul muro F n. Perciò per aumentare la resistenza alla forza esercitata dall’acqua (verifiche non soddisfatte ad esempio) è necessario rivedere il profilo della diga e quindi

rivalutare i valori di Ru 2 % e Q . Quindi molto schematicamente la progettazione di una diga prevede i seguenti passaggi: 1. 2. 3. 4. 5.

Dimensionamento dei massi Valutazione e verifica del Ru 2 % Verifica Q tracimante Verifica delle forze Verifica del muro

C’è qualcosa che non va? Ritorno all’inizio e faccio le modifiche necessarie come ad esempio l’inserimento di una berma per diminuire il valore del Ru 2 % e in conseguenza di tutte le grandezze ad esso seguenti. È palese quindi come la progettazione di queste tipo di opere sia di tipo iterativa. Nota sugli esperimenti: All’interno degli esperimenti si usano grandezze a-dimensionali perché il teorema π permette di fare “collassare” grandezze molto differenti fra loro in un unico risultato su (piani a-dimensionali) che mette in luce più facilmente le relazioni che intercorrono fra di esse, in caso contrario si avrebbero risultati molto dispersi. La portata tracimante viene valutata perché in funzione del suo valore numerico è possibile valutare i possibili danni e potenziali minacce che vengono riportati a tergo della diga per quanto riguarda la sicurezza del traffico (safety traffic, operatività portuale) e la sicurezza strutturale (structural safety). Ad esempio, fissato un valore molto

m3 contenuto di portata tracimante di s (i.e 0.5 l/s/m) si nota come i potenziali danni sono consistenti 0,0005 m

( )

rispetto al contenuto valore di portata tracimante: parcheggio non sicuro per macchine poste a tergo, danni strutturali per abitazioni poste a tergo e così via. C’è qualcosa che non quadra…la portata indicata nella tabella è infatti una portata media: la portata totale misurata nella vasca di raccolta diviso il tempo totale dell’evento. Questo valore medio deriva da eventi di tipo spike (eventi impulsivi: brevi e molto intensi) che, all’interno di un esperimento, non si riescono a caratterizzare bene perciò si utilizza come riferimento il valore medio della portata che si valuta in maniera molto agevole, le quantità istantanee sono infatti molto più difficili da valutare. La solidità di questo approccio sta nell’alto numero di onde (ca. 5 000) generate negli esperimenti che forniscono una solida base statistica.

Approccio contemporaneo ai calcoli presentati: Dal momento che sono stati condotti innumerevoli esperimenti con geometrie molto differenti fra loro, non è sempre facile trovare la relazione adatta alla mia particolare configurazione della diga. Per fare fronte a questa problematica sono state realizzate delle reti neurali, esse sono reti con grosse basi di dati in grado di memorizzare le caratteristiche geometriche della diga, degli elementi etc e di associare il valore che esce dall’esperimento ad una specifica configurazione (vista una roba simile in geotecnica). Queste reti sono quindi alimentate con tutti i dati degli esperimenti. Se a questa rete fornisco delle caratteristiche ad essa sconosciute in base ad interpolazioni pesate (i pesi sono dati in base alla vicinanza delle condizioni inserite a quelle note dalla rete) essa restituisce un valore di portata tracimante. Quindi: 1. Se faccio nuovi esperimenti possono implementare la base dati ed allagare la copertura dei dati. 2. Se ho una configurazione non coincidente a quelle presenti nel database, si ottiene comunque un risultato coerente. Oggigiorno vi sono 3 reti neurali gratuite disponibili e sono state sviluppate tramite progetti di ricerca europei.

Figura 17: parte dei dati richiesti dalla rete neurale Deltares (società di consulenza olandese).

Da notare che Deltares e HR Wallingford in quanto società di consulenza hanno scopo di lucro (mettono a disposizione dati anche per intercettare clienti) mentre EuroTop(?) è uno sforzo pubblico finanziato con enti di ricerca.

A valle di un sistema di previsioni, il prof. e un tesista hanno valutato una portata tracimante per il porto di Savona a partire dalle caratteristiche dell’opera ed hanno costruito una scala di pericolo.

Figura 18: la tracimazione non dà possibilità di operare in sicurezza nel caso di eventi severi. Nell'immagine viene riportata la strada che i camion devono percorrere all'interno del porto di Voltri una volta caricati i container. Un danno non solo nell’immediato alla diga, ma anche costi di manutenzione e danni relativi al mancato commercio.

Nuovamente: il paramento deve essere più scabro possibile per attenuare il run-up e la generazione della tracimazione!

Figura 19: la parte arancione (massiccio di coronamento) ha un leggero sbalzo per proteggere la mantellata interna dal fenomeno della tracimazione e limitare eventuali fenomeni di erosione degli elementi della mantellata interna posti al di sopra del livello d’acqua.

Massiccio di coronamento: È quell’elemento in cls armato posizionato in sommità della diga per dare una zona percorribile e accessibile in testa alla diga e permette una maggiore prestazione per quanto riguarda la limitazione della portata tracimante all’interno della diga. È l’ultimo elemento che si progetta e completa il profilo della diga, esso viene impiegato per due motivi principali: 1. Per fornire una maggiore resistenza alla tracimazione 2. Permette di realizzare una piattaforma di circolare, un’area che posso adibire a spazio operativo. Esso è poggiato direttamente sul nucleo e sullo strato filtro, la mantellata è appoggiata direttamente su di esso. Nell’immagine sottostante esso è realizzato tramite elementi prefabbricati.

Dal momento che questo tipo di elementi sono soggetti a forze orizzontali e lavorano per attrito (il peso proprio si oppone alla forza orizzontale delle onde) le verifiche saranno condotte per verificare gli spostamenti a cui sono sottoposti, si eseguono perciò delle verifiche di slittamento. Dal punto di vista operativo il valore del peso proprio della struttura e del coefficiente di attrito sono facilmente calcolabili, non si può dire lo stesso per il calcolo della forza orizzontale esercitata dal moto ondoso. Il processo è altamente non lineare, frangimento, intrappolamento di aria, generazione di turbolenza, presenza di strati porosi, zona di impatto diversificata…

μ P> Fn Anche in questo caso, la problematica si risolve in modo sperimentale.

Le grandezze fondamentali per lo studio della forza esercitata sul massiccio di coronamento sono: 1. Forza peso del massiccio di coronamento F G 2. Forza delle onde F w (forza delle waves), rappresentate tramite un profilo in parte dinamico (parte sotto) e in parte idrodinamico (parte sopra) 3. Sottopressione alla base del nucleo poroso U (Uplift): la filtrazione d’acqua nei diversi strati alleggerisce il peso dell’oggetto, F b Si può effettuare anche una verifica alla rotazione, tuttavia essa è poco significativa. Il nocciolo del problema è pertanto la definizione del profilo che si genera dal punto 2 (wave generated pressure), non vi sono modelli numerici (fino a poco tempo fa) facilmente impiegabili per descrivere il fenomeno e non esistono modelli analitici (fino a poco tempo fa) abbastanza complessi per la descrizione del fenomeno. Per questo motivo sono stati condotti degli esperimenti in laboratorio.

A priori risulta piuttosto chiare che il Ru 2 % non solo è legato al valore di portata tracimante Q ma anche al valore della forza esercitata sul massiccio di coronamento F w: infatti diminuendo il Ru 2 % (tramite un muro più alto) diminuisce di conseguenza Q ed è lecito aspettarsi un aumento della forza F w in quanto il massiccio deve assorbire una quantità di forza maggiore (se fermo più portata ho più forza sul muro). Bisogna quindi cercare un bilancio delle performance del muro che deve essere in grado non solo di contrastare la portata tracimante ma non deve essere eccessivamente massiccio per evitare di impiegare un quantitativo eccessivo di materiali e di gravare eccessivamente sulle fondazioni. Fondamentalmente la verifica a scivolamento della diga corrisponde ad un equilibrio alla traslazione che permette di definire il peso del massiccio di coronamento (espresso in funzione delle sue dimensioni). Un altro aspetto da tenere in conto è la verifica a rotazione della sezione di massiccio posta alla base della sua parte verticale, questa è una semplice verifica a momento come visto in tecnica delle costruzioni.

Perciò le verifiche che debbono essere fatte per una corretta progettazione sono: 1. Verifica a stabilità dell’oggetto (che vedremo) 2. Verifica della sezione alla base del muro in c.a (che non vedremo, tipiche della tecnica di costruzioni). Risposta idraulica dell’opera: Il massiccio ha una certa altezza h e fino ad una certa altezza vi è lo strato della mantellata, questo aspetto è particolarmente importante perché la presenza della mantellata permette diminuire fortemente le pressioni esercitate dall’acqua, l’ammasso smorza l’azione dell’acqua e annulla la parte dinamica del moto ondoso.

Figura 20: Nell'immagine di dx. i pedici 1 e 3 sono invertiti! In azzurro viene rappresentato un diagramma delle pressioni qualitativo

Nella figura sopra è riportato l’andamento delle pressioni a-dimensionalizzate in funzione del periodo adimensionale dell’onda relativamente a 3 differenti trasduttori posti a 3 differenti profondità. Si nota quindi che la parte scoperta riceve la maggior parte delle sollecitazioni derivanti dal moto ondoso. Queste forze impulsive

(slamming) nascono a seguito di un eventuale frangimento direttamente sul paramento verticale del muro, in particolare se l’onda intrappola dell’aria al suo interno il picco del grafico è ancora più marcato in quanto la lama d’acqua comprime la bolla d’aria e provoca una forza impulsiva ancora più forte. Sono presenti quindi 3 picchi, uno maggiormente marcato (muro esposto) e due decisamente più contenuti che risentono dell’effetto benefico messo a disposizione dalla mantellata. Se sono presenti quindi eccessive forze sul muro di coronamento si può pensare di alzare la mantellata oltre il livello del muro di coronamento che risulta quindi sottoposto al ciglio della mantellata (fig. 15 e), solitamente a questo espediente si accoppia anche l’inserimento della berma. Questa spiegazione ci permette di capire nel caso di frangimento sul muro di coronamento possono crearsi due differenti condizioni: 1. Onda che impatta sulla parete verticale del muro di coronamento 2. Onda che viene smorzata significativamente grazie alla scabrezza della mantellata e non impatta direttamente sul muro Negli anni ’90 Burcharth diede delle indicazioni per determinare la dinamica di impatto e non impatto sulle dighe fornendo il grafico sottostante ideato in funzione della larghezza della berma a-dimensionalizzata Bb e del rapporto fra Ac l’altezza caratteristica (di design, di fatto l’altezza massima H c max). In funzione di queste grandezze siamo in grado di capire se la nostra diga si trova all’interno della zona di impatto o non impatti

Nelle formulazioni sopra riportate L0 p corrisponde alla lunghezza d’onda al largo calcolata col periodo di picco:

g T 2p L0 p = 2π Se ci troviamo nella zona di impatto possiamo pensare, nel caso di verifica alla traslazione non soddisfatta, di disporre un ulteriore strato per quanto riguarda la mantellata in modo da aumentare la stabilità del manufatto.

Verifiche: Ve ne sono molte: a. Sliding, quella principali b. Overturning, rotazione rispetto al polo lato porto, non vi sarà mai la completa rotazione perché prima si presenterà un cedimento del terreno sottostante c. Cracking, verifica a taglio d. Geotchnical failure, verifica geotecnica dell’imbasamento (del pezzo di terra sotto il massiccio)

Posizionamenti del massiccio:

Lo slamming si verifica soprattutto nel primo caso, così come nel secondo. I casi c e d sono progettati proprio per evitarlo. Schema di verifica: Vediamo le forze in gioco per impostare la verifica: -

Forza delle onde: quella rappresentata in blu, qua viene idealizzata come una forza costante ma in realtà non lo è Forza dei massi: il cui effetto è comunque marginale Forza di gravità dell’oggetto: quella che fornisca la stabilità Sottopressioni: dovute alla filtrazione dell’acqua attraverso lo strato sul quale il massiccio appoggia, il che lo alleggerisce Polo di rotazione: indicato in verde

Le forze destabilizzanti sono quelle delle sottopressioni e quelle delle onde.

Come detto la problematica sta nel calcolo della forza blu, quella delle onde. A partire dagli anni ’80 sono state fornite delle stime tramite modelli parametrici per la valutazione di tale forza, queste stime, molto simili fra loro, accoppiano un modello di pressione idrostatica (triangolare) e un modello di pressione idrodinamica. Gumback e Gocke (1984): Non impact Conducono esperimenti in condizioni operative di non impact (l’onda arriva senza impatto violento). Sulla parete verticale si individuano quindi due contributi: uno di pressione dinamica e uno di pressione idrostatica. Per quanto riguarda il primo, la quota di inizio della distribuzione idrostatica Ph=γ w y viene posta in corrispondenza del punto di intersezione fra il Ru 2 % e la pendenza della mantellata (fig.21 min 26:00 lect. 21), la pressione dinamica invece sostanzialmente corrisponde ad un getto che in parte colpisce direttamente la parete con la massima potenza e in parte (quella inferiore) è limitato dalla presenza della mantellata:

ove il termine sotto radice corrisponde ad una velocità di onde su acque basse ed è pari a:

u=√ gh Ove y corrisponde alla profondità della lama d’acqua di fronte al muro, per quanto riguarda la parte coperta dalla mantellata si ha:

pm =0.5 P m Il diagramma delle sottopressioni è composto da due contributi: -

Contributo di pressione idrostatica ph Contributo di pressione legato all’ammasso di fronte alla mantellata poiché nel punto di spigolo la pressione si ha una sorta di “trasporto” del valore di pressione proprio come nel grafico del momento flettente in scienza delle costruzioni, ci deve essere continuità nel punto!

Figura 21: distribuzione delle pressioni e procedimento grafico per ottenere y. θ = 15° poiché si ipotizza che la lama d’acqua si trovi all’interno dei quello spicchio individuato dall’angolo.

In questo G & G usano una formula di Ru 2 % un po’ diversa ma non c’è problema, possiamo usare la formula che ci pare per il suo calcolo. Per il calcolo del modulo della forza si opera tramite una classica integrazione della pressione sull’area lungo le lunghezze del muro e si ottiene una forza per metro lineare. Jansen (1984), Bradbury et al. (1988): impact Per il calcolo dei valori di impact non viene fornito un diagramma delle pressioni ma un valore statistico in forza (“un contributo in forza) allo 0,1% derivante da misurazioni effettuate tramite celle di carico: il fenomeno delle onde è randomica e va studiata statisticamente. Ovviamente anche in questo caso la relazione a-dimnsionalizza la forza impiegando le seguenti grandezze: -

ρw : densità dell’acqua g H w : profondità di fronte alla diga L0 p: l d’onda calcolata col periodo di picco al largo

Così facendo si ottiene una relazione lineare dipendente da due coefficienti α e β in funzione del rapporto fra l’altezza d’onda significativa e l’altezza della cresta della mantellata AC .

Ovviamente a sezioni di muro differenti corrispondono diversi valori di α e β , tali valori sono tabellati in funzione delle diverse configurazioni. Se ad esempio ho ipotizzato una configurazione iniziale di un certo tipo da un punto di vista geometrico potrebbe capitare che le verifiche non siano soddisfatte e quindi potrei essere costretto a cambiare tipologia di sezione.

Nuovamente, i parametri da utilizzare per queste formulazioni hanno delle limitazioni di applicazione. Secondariamente si nota come la pendenza in ogni esperimento fosse fissata ad un valore 1:2 in ragione dell’impiego di massi naturali per la mantellata. Martìn et al. (1995): impact/non impact e frangenti/non frangenti Visto che le due formulazioni di impact e non impact risultavano separati Martin et al. hanno pensato di esporre una formulazione che tenesse in conto delle contemporaneamente delle due condizioni, queste due relazioni sono coerenti fra di loro. Le distribuzioni delle pressioni, per quanto riguarda la configurazione impact, sono simili alla prima formulazione vista con alcune differenze e analogie: 1. La componente idrodinamica sulla parete verticale è costante ma il suo valore al piede è dipendente da una costante c w 2 che va calcolato in funzione delle caratteristiche della berma in testa (esso è infatti proporzionale alla larghezza della berma e alla lunghezza d’onda al picco). In base a come è definito questo coefficiente si capisce che più la lunghezza d’onda è grande più piccolo è l’effetto della berma, l’onda “non vede” la berma.

2. La pressione in testa della parete verticale è funzione di due coefficienti, uno appena descritto e un altro, c w 1 , proporzionale alla quota di run up.

3. La pressione in testa della parete verticale è funzione di S0 che di fatto corrisponde a quello che prima era stato definito come y :

Per quanto riguarda le sottopressioni esse sono definite differentemente a seconda che la situazione sia di impatto o non impatto. Solitamente si pone pari a zero il livello della sottopressione lato porto, tuttavia in condizioni di intasamento del retro del masso con filtro, nucleo etc. si ha un valore di sottopressione diverso da zero e l’andamento dell’immagine rappresentata non risulta triangolare ma trapezioidale. Nuovamente, essendo le formulazioni ottenute a partire da analisi sperimentali le grandezze fisiche reali sono opportunamente adimensionalizzate. Uno degli aspetti cruciali di tale modello è il rapporto fra il run up ( Ru) e l’altezza d’onda H , questo rapporto dipende da due coefficienti Au e Bu, il loro comportamento può essere espresso su un grafico in funzione della porosità e dei massi che costituiscono la massicciata, sul grafico di destra è rappresentata la funzione esponenziale ottenuta a partire da dati sperimentali (rombi).

Perciò, ipotizzando una porosità pari a 0.4 si possono ottenere graficamente due valori standard di Au (1.4) e Bu (0.6). N.B: il numero che nell’immagine sopra è definito come I r corrisponde al numero di Irribarren ξ . Chicca: Esistono due mondi nella definizione di quella che noi abbiamo chiamato fino ad ora come numero di Irribarren. In spagna utilizzano la definizione di numero di Irribarren I r perché tale studioso, spagnolo, fu il primo a definirlo, tuttavia in Olanda e più in generale nel mondo anglosassone non viene riconosciuta la sua paternità e pertanto chiamano tale rapporto surf similarity parameter ξ . Sempre Martìn ha studiato il comportamento del coefficiente c w 3 in funzione della ripidità d’onda, tale parametro entra in gioco nella definizione della pressione idrostatica nel caso di configurazione non impact. Più l’onda diventa

ripida più il coefficiente diminuisce. Non solo, egli ha anche prodotto delle relazioni fra il valore delle sottopressioni presenti agli estremi della base del massiccio di coronamento in funzione del rapporto fra la profondità del massiccio di coronamento ( B oppure L) in funzione della lunghezza d’onda.

Figura 22: più la soletta è lunga rispetto all’onda più la pressione si scarica, se la soletta è corta è presente una pressione significativa anche lato porto

Pedersen (1996):

Le forze sono espresse in termini di percentuali di superamento, in particolare vengono espresse i valori della forza e del momento in funzione di: - Caratteristiche della diga come ad esempio B - Caratteristiche delle onde come ad esempio L0 m Questo tipo di approccio viene adottato tramite l’ausilio di AutoCAD in quanto richiede una risoluzione geometrica abbastanza noiosa da risolvere a mano, si eseguono infatti dei rapporti fra l’area della lama d’acqua ( A2) e l’area della mantellata ( A1). sopra il livello medio del mare. Sono disponibili invece delle formulazioni per il calcolo di pm,

y eff e h' .

Lo schema delle pressioni è simile a quelli già visti:

Sebbene si possa calcolare direttamente la forza, la complicanza di questo metodo è legata alla presenza del disegno: se si cambia una parte del progetto vanno rifatti tutti i calcoli compreso il disegno e la valutazione delle aree. Il consiglio è quello di creare dei fogli di calcolo Excel ben strutturati la prima volta che si impiega questo metodo. Dal momento che questi esperimenti nascono in laboratorio e hanno base statistica le due esperessioni fornite all’inizio sono corredate da un’affidabilità, viene infatti fornita la deviazione standard per ogniuno dei coefficienti che caratterizzano le due equazioni (0.21, 1.6, 0.55, 1), sappiamo quindi quanto i coefficenti presenti nell’equazione variano. Verifica numerica: Viste ore le diverse componenti che caratterizzano la risposta idraulica della massicciata è possibile passare alla verifica da un punto di vista operativo, la condizione fondamentale (a meno dei coefficienti di sicurezza) che deve essere soddisfatte è la seguente:

( P−U ) μ> F w Manca quindi solo il valore del coefficiente di attrito da definire. Non è semplicissimo da definire, tendenzialmente si utilizzano dei valori standard che però sono contenuti in un range piuttosto ampio ( μ ∈0.4 ÷ 0.8 ) questi valori derivano da studi sperimentali effettuati in Giappone nel 1996.

Figura 23: crushed stone (pietre da cava), screeded (preparata), not screeded (messe a cazzo).

L’obiettivo è avere coefficienti di attrito più alti possibili in modo da poter disporre di un coefficiente di attrito elevato. Altri esperimenti sono stati condotti in Francia attorno agli anni ’90.

Dalla tabella sopra si nota come anche una piccola variazione della scabrezza della superficie ( smooth vs. corrugated) porta a significative differenze nel valore di μ. Solitamene μ appartenente all’intervallo 0.4 ÷ 0.5 e questo dipende, come detto, dalla realizzazione della superficie di posa del massiccio di coronamento. Parte non inclusa nelle slides tratta dall’Engineering manual: livellamento della massicciata Sono presenti due approcci per la fase cosiddetta di levelling: -

Rough levelling: la superfice di interfaccia fra l’ammasso ed il muro è la più scabra possibile, coefficiente di attrito elevato Fine – Rubble levelling: la superfice di interfaccia fra l’ammasso ed il muro è la fine, coefficiente di attrito contenuto

Se vi sono problemi di stabilità, anziché aumentare il peso del cls del massiccio di coronamento è molto più funzionale realizzare il taglione, esso corrisponde ad una speciale sagomatura da parte della parte in cls in grado di penetrare più a fondo nell’ammasso

Figura 24: nel caso di taglione μ può raggiungere addirittura valori intorno a 0.6 – 0.65

Viene sì impiegato più calcestruzzo ma non tanto quanto nel caso di aumento di spessore della soletta. In funzione del tipo di levelling e del bottom pattern si hanno differenti coefficienti di attrito che sono calcolati fissati differenti valori di spostamento.

Figura 25: l'inserimento dei taglioni porta un aumento considerevole del coefficiente di attrito rispetto alla condizione flat, soprattutto nel caso di superfice molto liscia (fine smoothing) che senso sia maggiore di quello rough se la superficie è molto liscia?

Quindi la soluzione migliore per aumentare il coefficiente di attrito è accoppiare rough levelling e taglione. Esempio di calcolo con metodo Jensen per massiccio di coronamento: Da sviluppare autonomamente e verificare a parte Oggigiorno sono presenti degli strumenti di calcolo che permettono di tenere in conto l’interazione delle onde con la struttura e riprodurre graficamente questa interazione che permette apprezzare il run up e il run down dell’onda . Questi programmi risolvono le equazioni del moto dei fluidi in presenza di strutture e permettono di fare delle stime non solo nei confronti della portata di tracimazione ma anche delle distribuzioni di pressioni nei confronti del muro paraonde. Questo tipo di informazioni sono estremamente utili in fase di progettazione perché tramite queste simulazioni si possono avere info dettagliate sull’andamento (durante il tempo) delle formulazioni impulsive e altro. Le simulazioni sono complicate, questi programmi richiedono perciò allo stesso tempo una conoscenza approfondita della meccanica dei fluidi per poter valutare criticamente quanto si ottiene nelle simulazioni . Gli strumenti di calcolo sono impiegati per situazioni critiche, particolari, che richiedono in ogni caso uno studio approfondito, in questo caso avrebbe senso accoppiare non solo la sperimentazione numerica ma anche una sperimentazione in vasca: i primi permettono di verificare rapidamente differenti scelte e opzioni progettuali, i secondi sono molto dispendiosi in termini di tempo e soldi (le modifiche fisiche del modellino richiedono impegno) ma forniscono dati accurati. Solitamente quindi si tende a ricreare il modello numerico in laboratorio per poterlo verificare e ottimizzare in base ai risultati ottenuti e modificare di conseguenza le caratteristiche della diga.

DIGHE A PARETE VERTICALE: Per questo tipo di opere di protezione le onde vengono riflesse, vi sarà pertanto una componente riflessa del moto ondoso che viaggia verso il largo e una componente incidente che viaggia verso la diga. In base a questo schema si genera una segnale di moto ondoso che è la somma dell’incidente H I e della riflessa H R. La resistenza alle onde, molto banalmente, è generata dalla forza di attrito e come è stato definito in precedenza si ha:

F w < μ ( P−U )

Gli elementi principali che costituiscono le dighe a parete verticale sono: -

-

Imbasamento (arancione), costituito da materiale sciolto. Fusto o tronco della diga (azzurro), infrastruttura. Realizzato con cassoni cellulari monolitici in c.a a sezione rettangolare (scatoloni in c.a suddivisi in celle), solitamente fuoriesce dal livello medio mare per una grandezza dell’ordine del metro, appoggia sull’imbasamento. L’impiego di questo elemento costruttivo permette una sua realizzazione tranquillamente in officina e un suo posizionamento dove serve, la lavorazione è in serie e l’installazione è facile. I problemi sono legati alle altezze che si riescono a raggiungere perché per realizzare questi cassoni si usano impianti speciali che solitamente sono posizionati all’interno di un porto. Muro paraonde (i.e sovrastruttura, grigio), impiegati per evitare il processo di tracimazione sopra la diga. Massi guardiani (viola), solitamente sono due blocchi in c.a. Cuscino di sabbia (ciano), è una parte in cui è possibile si rendano necessari una serie di interventi di consolidamento del terreno e miglioramento delle capacità portanti. Ad esempio, si potrebbe effettuare una scarificazione del terreno con sostituzione del terreno per migliorare la capacità portante.

Si ha difficoltà a realizzare un unico elemento assieme di altezza pari a h+ A c, per questo viene diviso in due pezzi (azzurro e grigio). Diga di Cornigliano:

L’imbasamento è realizzato con materiale sciolto, è stato scavato un leggero cuscinetto di sabbia (scanno) rispetto al fondale, l’imbasamento prevede una massicciata di protezione (va prevista nel caso si possano avere determinati effetti del moto ondoso) per evitare di movimentare ed erodere l’imbasamento (min. 16:00 lect. 23 spiega bene il motivo). Si nota la presenza del masso guardiano (verde) e si notano anche il cassone cellulare ed il massiccio paraonde. Solitamente si cerca di tenere il livello di imbasamento a circa il 30% della profondità locale del mare h (in tal caso si parla di dighe composite low mound) perché se avessi un imbasamento più alto le onde potrebbero instabilizzarsi e creare frangimento, questa cosa va assolutamente evitata nelle dighe a parete verticale perché potrei avere un trasporto di massa importante (generano un impatto significativo sulla diga )e le dighe di questo tipo non sono fatte per resistere a questo tipo di onde, potrebbero andare in crisi. Le dighe a parete verticale sono progettate invece per resistere bene alle pressioni delle onde non frante. Diga di Voltri:

In questa situazione le quote sono significative, l’imbasamento è di circa 10 m mentre la parte libera è circa 20m, anche qua si ha B

1 h, il cassone è quindi circa alto 22m (una palazzina di 7 piani). Si nota che l’imbasamento è 3

realizzato tramite un tout-venant, il che richiama le dighe a gettata e la protezione ad esso è significativa per contrastare l’azione delle onde anche ad una certa profondità. I massi guardiani, posti fra la protezione e la diga, sono l’elemento più importante della diga perché un loro spostamento manda in crisi tutta la diga . Come per le strutture ordinarie, la funzione dell’imbasamento è quella di consentire un unico piano di posa sufficientemente esteso e di ripartire sul terreno le elevate pressioni che il terreno stesso non potrebbe altrimenti sopportare. Il terreno del fondale marino non ha buone capacità portanti, è saturo e limaccioso, con l’imbasamento la distribuzione del carico segue i piani di rottura del terreno: il peso del cassone viene distribuito su un’area più estesa. Molo Granili, Napoli:

In questo caso il massiccio di coronamento è verso l’interno, questa è una scelta, come vedremo, per sfruttare la spinta delle onde a favore di sicurezza. Inoltre, il cassone non è di tipo cellulare ma è realizzato tramite dei piloni cavi costituiti da elementi unitari cavi impilati l’uno sull’altro (massi di cls, rettangolo arancione) e successivamente solidarizzati (ma possono anche non esserlo, in questo caso lo sono) tramite un getto in cemento. Questa scelta è legata al periodo di costruzione di questa diga, essa è piuttosto “anziana” e per l’epoca in cui è stata costruita veniva impiegata la tecnica appena descritta. Nuovamente, l’imbasamento è costituito da un nucleo di elementi più fini e uno strato di elementi più grossi (sia lato interno che lato esterno) che termina in corrispondenza di un masso guardiano. Vi sono poi altri esempi di dighe più datate che non impiegavano la tecnica del cassone cellulare, come ad esempio la diga di Algeri e quella di Marsiglia (identiche). Si nota anche che ai tempi si raggiungevano profondità molto contenute.

Le dighe possono anche non essere solidarizzate (diga di Libau), in questo caso la verifica a scorrimento va condotta per ogni strato di massi che costituisce la diga.

Si possono presentare anche soluzioni intermedie (diga Molo Sud-Ovest di Colombo) che presentano massi piccoli e barre verticali di connessione in acciaio che permettono in misura minima di solidarizzare la struttura. In questa diga addirittura sono stati impiegati calcestruzzo in sacchi induriti in qualità di massi guardiani.

Distanza pelo libero del mare – sommità del tronco, francobordo: δ h In passato questa distanza era definita a partire dai cedimenti del terreno. Nell’immagine sono riportati i diagrammi dei cedimenti del terreno dal momento di posizionamento della diga. Come visto in Geotecnica il cedimento iniziale è dell’ordine dei 60-70 cm fino ad arrivare ad un valore asintotico, tuttavia complessivamente il cedimento è di circa 1 metro. Perciò se si vuole mantenere il francobordo δ h pari a 1m esso è pertanto pari a:

δ h=1 m+ c Ove il valore c rappresenta il cedimento della diga. Come si fa a valutare il cedimento? Si fanno delle indagini geotecniche relativamente al terreno di fondazione e si fanno inoltre delle stime geotecniche relativamente al cedimento atteso del terreno costituito da basamento e terreno di fondazione. Perciò c è funzione delle caratteristiche geotecniche del terreno. Il francobordo è necessario perché essenzialmente per due motivi: 1. Sopra al fusto (i.e il cassone) viene adagiato il massiccio di coronamento, il quale lavora per gravità. Se l’interfaccia fra la cima del fusto e la base del massiccio di coronamento è satura di acqua il coefficiente di attrito è sicuramente minore del caso di interfaccia asciutta. La presenza dell’acqua lubrifica e quindi l’insieme massiccio di coronamento – cassone non può più essere considerato come un unico elemento. 2. Se il massiccio di coronamento fosse immerso parzialmente in acqua esso sarebbe soggetto ad azioni differenti

Innalzamento del livello medio mare: Se nel 2020 progetto un’opera con vita utile di 50 anni è previsto che nel 2070 sia completamente operativa. Tralasciando le motivazioni che stanno dietro all’innalzamento del livello medio mare, è innegabile che esso stia salendo. Ciò ovviamente potrebbe avere delle ricadute significative per la stabilità della diga, in particolare del massiccio di coronamento. Alcuni paesi, come l’Olanda, chiedono di tenere in conto questo aspetto sia per nuove realizzazioni che per progetti esistenti, pertanto l’analisi non solo deve tenere conto dei cedimenti ma anche del sea level rise. Questo aspetto ha anche delle ricadute all’interno dell’overtopping che potrebbe influenzare l’operatività

della diga anche in un futuro abbastanza prossimo. Si potrebbe pensare di collegare il massiccio ai cassoni ma la realizzazione dei nodi oltre a essere complicata e costosa (anche in termini di tempo) sarebbero molto sollecitate a taglio, tendenzialmente non si realizzano per semplicità e per ragioni di costi – benefici. Diga di Gela: quota del ciglio del muro paraonde.

Questa grandezza serve per controllare la tracimazione a valle della diga, tale quota è di particolare interesse per la sovraintendenza paesaggistica che regola la sua altezza in quanto la cresta costituisce uno sbarramento alla visuale. Bisogna quindi pensare degli escamotage per ottenere buoni risultati senza compromettere il paesaggio. In questo esempio la faccia lato mare del muro paraonde è sagomata in maniera concava e riesce a respingere le onde dirigendole verso il largo, diminuisce efficacemente la portata di tracimazione. Il difetto di questa soluzione è la generazione di un’ulteriore spinta dovuta alla deviazione della quantità di moto dell’onda. Inoltre, questa diga non presenta l’impiego di massi guardiani ma solamente di scogli, evidentemente il moto ondoso non era così significativo da richiedere il loro utilizzo. Ancora, il consistente spessore della soletta (2 m.) è realizzato per guadagnare peso e stabilizzare l’opera. Per le dighe del Mediterraneo, a livello preliminare la quota del ciglio del muro paraonde viene posta pari circa a 0.8−1.2 H TR 100 . Problemi legati alla riparazione: Le dighe a parete verticale presentano una difficoltà di riparazione molto più marcata rispetto ad una diga a gettata perché in queste ultime il danneggiamento è relativo allo spostamento di qualche masso, mentre nelle dighe a parete verticale esso è inteso come uno spostamento della diga a seguito dell’azione del moto ondoso. Spostandosi, alla base del cassone può lasciare esposta una zona dell’imbasamento difronte al cassone che può iniziare a erodere fino a scalzare la diga facendola ribaltare in avanti. Per questo motivo, quando si parla di danneggiamento per dighe a parete verticale, gli spostamenti ammessi sono dell’ordine dei 50 cm, oltre essa potrebbe andare in forte crisi. Inoltre, un danneggiamento riportato in questo tipo di dighe non è facile da mettere a posto, una volta che si sposta troppo o si leva il cassone o lo si riposiziona oppure lo si leva e se ne riposiziona uno nuovo. Per questo motivo questo tipo di dighe non vengono messe in condizioni di: - Mari per i quali siano prevedibili onde anomale (inizia a frangere, trasporta massi, sposta facilmente la diga). - Significative variazioni del livello del mare (le condizioni di interazioni fra il fondale e il modo ondoso cambiano fortemente a seconda dei casi: in condizioni di bassa marea potrei avere frangimento e perciò spinte impulsive, in condizioni di alta marea si potrebbe avere sommergenza del massiccio di coronamento). Il Mediterraneo presta bene a questo tipo di dighe. Conclusioni: Si può quindi affermare che questo tipo di dighe possono essere impiegate in determinate condizioni: - Non bisogna avere condizioni di onda frangenti. - Non bisogna avere condizioni di forte maree. - Non bisogna avere condizioni di danneggiamento esteso, esso deve essere molto limitato. Verifiche:

Le principali verifiche che si effettuano per questo tipo di dighe sono due: 1. Verifica a scorrimento: equilibrio alla traslazione orizzontale

F w −μ ( P−U )

400 Pf

Il valore di Pf impiegato in questa disequazione corrisponde ad un valore target che viene fissato a priori e stimato in sede di progetto, a partire da questo valore target otteniamo la Pf reale dell’opera a seconda di ciò che modifichiamo del progetto (poco chiaro in relazione alla probabilità che ottengo, min. 30:36 lect.33). Ma torniamo all’immagine: 2. 3. 4. 5. 6.

Draw: lancio dei dadi per tutti i valori delle grandezze coinvolte nell’equazione di progetto Calcolo del valore dell’equazione di progetto Mi chiedo se tale valore è >, < di zero. Proseguo al lancio dei dadi per un numero di volte identificato dalla disequazione sopra Una volta raggiunto questo numero valuto la probabilità di failure a partire dai casi totali e da quelli che hanno causato failure:

Pf =

Nf N

In altre parole, quello appena descritto corrisponde ad un ciclo do di MatLab calcolato da i=1 a i=N tot

Figura 58: in questo caso

Z ≡G

Progettazione probabilistica: approccio probabilistico. Si parte banalmente da un’equazione sopra descritta in cui alle relazioni vengono sottratte le resistenze:

G ≡ Z=R−S Che può essere riscritta nella seguente maniera:

Z=6.2 P

0.18

S √N

0.2

( )

⋅ξ−0.5 −

H sc Δ ⅆ n 50

Per ogni variabile in gioco (diametro medio, densità relativa, pendenza della scarpata e ripidità d’onda) si devono conoscere le rispettive distribuzioni di probabilità con deviazione standard nota. Solitamente per le variabili sopra elencate si assumono distribuzioni di tipo normale mentre per la porosità si assume una distribuzione log-normale e per l’altezza d’onda si impiega una distribuzione di tipo Weibull. Meglio conosciamo le distribuzioni (i.e penso intenda più siamo sicuri che esse siano adatte alla variabile a cui sono associate) più attendibile è la stima. Come riportato nella figura sotto, a partire da un medesimo valore iniziale (ad esempio un diametro medio ricavato da un dimensionamento deterministico) e stessa equazione di progetto si possono ottenere differenti probabilità di failure, questo dipende (se non ho capito male) dalle deviazioni standard associate ad ogni distribuzione, vi sono infatti alcune grandezze per le quali non siamo in grado di stabilire con certezza la loro distribuzione (i.e la deviazione standard è maggiore e maggiore è quindi la variabilità che i diversi valori possono assumere nelle varie simulazioni perché conosco meno il dato e come esso varia) e questo influisce sull’affidabilità della stima che si ottiene.

Come analizzato nel corso di Metodi probabilistici sarebbe insensato porre il periodo di ritorno pari al tempo di vita utile della struttura (es. 50 anni), fissata infatti una probabilità di failure molto bassa ( Pf =0.011) diventa una probabilità di failure nel corso della vita dell’opera pari al 42% (0.42).

In altre parole, è come se avessimo fatto il seguente ragionamento: “Facciamo che la mia diga deve durare 50 anni, bene. Fissiamo quindi il periodo di ritorno pari a 50 anni e ipotizziamo una failure dell’1 % in questi 50 anni”. Così facendo ho il 42% di probabilità che l’evento si verifichi e distrugga la mia diga. (min 38:38 lect. 33 nel caso rivedere appunti Piccardo). Bisogna quindi stare attenti a impiegare valori corretti quando si parla di tempo di ritorno. Spesso si ragiona anche sul rischio capitalizzato, vengono quindi definiti sia un rischio che un costo e vengono collegati per dare una sensibilità economica degli eventuali danni.

Quando si fanno operazioni di manutenzione dell’opera vengono tracciate delle curve che rappresentano il safety cost (verde, in altre parole il costo di costruzione) e il costo failure and downtime (in arancione) in funzione della reliability mesaure. Se la struttura è progettata per resistere a probabilità di failure più basse (i.e struttura più resistente) si hanno costi dovuti ai danni molto piccoli però i costi di costruzione sono molto alti. Per combinare questi due aspetti viene tracciata la curva che rappresenta la total costs during lifetime, sulla quale viene cercato il minimo. Per cui se la struttura è sottodimensionata in modo significativo i costi al in arancione sono alti (failure),

mentre se la struttura risulta sovradimensionata i costi di costruzione sono molto elevati e preponderanti su quelli di failure, il minimo di questo curva rappresenta la progettazione ottimale. Fissato un valore a piacere della curva azzurra si avrà un fissato valore in ascissa che identifica un segmento verticale, esso può essere scomposto nella somma di segmento di lunghezza pari al un costo relativo alla costruzione (verde C s) e di un segmento di lunghezza pari al costo relativo alla failure dell’opera (arancione PV ⋅ p f ⋅ E ( D ) una sorta di rischio monetarizzato).

Livello 2: Metodo probabilistico. È il metodo su cui ci soffermiamo di meno perché oggigiorno non viene più impiegato, secondo questo metodo la probabilità di failure è dedotta da soluzioni approssimate ottenute linearizzando le equazioni vicino al “design point” ove G=0 in cui la densità di probabilità della combinazione delle resistenze e delle sollecitazioni è massima.

Figura 59: punto in esame (rosso) e relativa linearizzazione (tratteggio), sx. In arancione (dx.) viene evidenziata la proiezione della superficie che si considera applicando il livello 3.

La grossa differenza è che il metodo di livello 3 considera tutti i punti della superficie di intersezione fra la retta G=0 e il grafico di densità di probabilità. Oggi, grazie alla potenza computazionale, vengono impiegati o il livello 1 oppure, nel caso si dispongano di calcolatori sufficientemente potenti, il livello 3. Si assume che G sia descritta da una distribuzione normale rispetto a tutti i parametri che la compongono per cui è possibile riferirsi alla media e alla deviazione standard. Si definisce infatti un parametro, β pari al rapporto fra la media e la deviazione standard.

β=

μG σG

Inoltre, l’influenza della sollecitazione è più significativa di quella delle resistenze e la differenza fra il livello 3 e il livello 2, in termini di probabilità di failure, è minima.

Livello 1: metodo probabilistico. Quello della NTC 2018, esso si basa sui coefficienti parziali di sicurezza e valori caratteristici da applicare alle variabili di resistenza e sollecitazione. È più raffinato del livello 0 (si considera solo un coefficiente di sicurezza globale) ma è più semplificato rispetto al modello 3 (perché non vengono fatte tutte le analisi di probabilità e la simulazione Monte – Carlo). Non si impone la probabilità di failure ma si verifica solo se un livello di sicurezza è soddisfatto. A ogni livello di sicurezza la norma fornisce i coefficienti parziali di sicurezza. Per quanto riguarda la applicazione a dighe a gettata, gli stati limite sono rappresentati da un certo valore di K p o S (che può essere uguale a 2, 5 o 8) a seconda che venga impiegata la formula di Hudson oppure di VDM a seconda del grado di danneggiamento. Per le dighe a parete verticale, non essendo previsto un danneggiamento, si parla di massimo scorrimento che deve essere contenuto entro un range accettabile. La funzione di stato limite viene così formulata:

G=

Rch −S ch γ S >0 γR

Il pedice ch , presente sia nelle resistenze che nelle sollecitazioni, sta per characheristic. Viene di seguito riportato un esempio per una diga a gettata nel caso di adozione della relazione di Hudson per la progettazione, si vuole quindi definire la massa dell’elemento che può essere riformulata all’interno della relazione di Hudson.

Nella formula sopra riportata il valore H assume il ruolo di sollecitazione mentre le resistenze sono rappresentate 1

1 =[ k D ⋅ cot ( α ) ] 3 ). La funzione di stato può dal danneggiamento moltiplicato ad una relazione cotangenziale ( Δ Dn essere quindi scritta in funzione delle resistenze e delle sollecitazioni: 1

G=ZΔ Dn [ K D cot ( α ) ] 3 −H Il coefficiente Z è legato alle incertezze e all’interpretazione dei dati sperimentali che si impiegano nella progettazione, dalla formulazione di sopra si può passare ad una formulazione in funzione dei coefficienti parziali di sicurezza (le resistenze sono divise, diminuiscono e le sollecitazioni sono moltiplicate, amplificate e quindi aumentano): 1

cot ( α ch ) 3 Z Δ D G= ch ⋅ ch ⋅ n ch ⋅ K D ⋅ −γ H ⋅ H ch γz γΔ γD γ cot ( α ) n

[

]

Δ ch rappresenta la densità relativa, D n ch rappresenta il diametro nominale, K D viene fissato a priori mentre cot( α ch )rappresenta la pendenza della mantellata. I relativi coefficienti rappresentano quindi l’incertezza legata ai massi che vengono impiegati, al diametro che li caratterizza e alla realizzazione della mantellata. γ H rappresenta invece l’incertezza relativa all’altezza d’onda significativa di progetto. Per completezza viene riportato lo specchietto inserito nelle slide relativo alle incertezze rappresentate da ogni coefficiente parziale.

A questo punto posso condensare tutti i coefficienti parziali delle resistenze in un unico coefficiente e lo stesso posso fare per le sollecitazioni, vengono quindi introdotti i coefficienti γ z e γ H .

Figura 60: nelle slides viene riportata anche le formule per VDM (a seconda del carattare plunging o surging sulla mantellata).

Il primo dei due coefficienti viene valutato abbastanza facilmente in funzione della probabilità di collasso e di un parametro k α:

γ z=1−k a ⋅ln Pf Il secondo, relativo all’incertezza del comportamento del moto ondoso, è costituito da 3 membri che sono relativi, nell’ordine: 1. Stima e incertezze degli errori di misura per H s (quanto siamo bravi a misurare l’altezza d’onda).

Figura 61: il rapporto ci dice la differenza fra le due altezze d’onda, se la retta è più o meno pendente. L’elementi dice le differenze dovute al modello statistico utilizzato (?)

2. Stima degli errori di misura e della variazione di corto periodo dovute ai dati d’onda (bontà dei dati raccolti, come misuro/ottengo i dati di onda). 3. Incertezza statistica dei dati d’onda impiegati per la stima dell’onda di progetto (i valori estremi sono molto influenzati dal numero di dati che si hanno a disposizione, ci dice il numero di dati a disposizione per l’analisi).

Fra gli altri, k s viene assunto pari a 0.05. Sono stati fatti degli studi relativamente ai valori dei coefficienti k inseriti nell’equazione sopra per rocce naturali, tetrapodi, cubi, acropodi nelle varie relazioni progettuali impiegabili.

Figura 62: tabelle prese dalle linee tecniche del PIANC.

Inoltre, a seconda dell’elemento che si sta progettando, si hanno delle differenti tabelle (opere al piede, run-up, struttura a cresta bassa…). Quindi, in definitiva, γ z è definito in funzione di un valore k a noto. Passiamo ora alla valutazione del coefficiente relativo alle onde. Il primo membro è composto da due differenti altezze significative d’onda relative a differenti tempi di ritorno: uno corrispondente alla probabilità di failure e uno alla vita utile dell’opera. Va ora definito il termine σ F H , esso è in funzione della strumentazione a disposizione per misurare il moto ondoso e s

della distanza dalla costa (off-shore, near shore) del punto che si vuole analizzare. Più in particolare, per i punti vicino alla costa, vengono impiegati modelli numerici che permettono di ottenere le caratteristiche dell’onda sul punto in cui si vuole realizzare la diga grazie a processi di shaoling e rifrazione che trasferiscono le caratteristiche nel punto.

Figura 63: possono essere anche impiegati strumenti radar che operano tramite misure indirette (horizontal radar, hindcast, che sono numerical models. Il metodo SMB è meno raffinato perché è un modello parametrico) oppure tramite report dei capitani delle navi (la raccolta più grande è dell’istituto olandese KMI).

In questo tipo di analisi è possibile tenere in conto anche di altre grandezze utili per il dimensionamento quali: -

Periodo dell’onda (serve per il run-up) Duration of sea state (quanto dura l’onda) Spectral peak frequency offshore (?) Spectral peakedness offshore (quanto lo spettro è impicchito) Main direction of wave (direzione dell’onda)

Nuovamente, a seconda del tipo di misura che si sta effettuando

Figura 64: in verde sono evidenziate le tipologie di misurazioni maggiormente impiegate.

Quindi a seconda della grandezza prevalente che si vuole considerare in sede di progetto verrà individuato il valore più consono di σ . (?) Passiamo ora all’ultimo membro, minore è N maggiore è l’incertezza legata a questo membro, maggiore sarà il valore del coefficiente di sicurezza, viceversa all’aumentare di N. Di seguito viene fornito un breve specchietto relativo all’influenza dei vari termini: - Periodo di vita utile della struttura (50 o 100 anni). - Probabilità di faliure - Relativo periodo di ritorno legato alla probabilità di collasso - Altezza d’onda con tempo di ritorno pari al periodo di vita utile della struttura nel caso di esponente pari a T e 3T. - Altezza d’onda con tempo di ritorno corrispondente alla probabilità di collasso. - Coefficienti parziali (probabilmente calcolati con Hindcast) - Diametri in funzione del grado di danneggiamento - Pesi in funzione dei diametri relativi al grado di danneggiamento

La variabilità di peso può rientrare anche nell’ordine delle 10 volte! La progettazione probabilistica risulta estremamente articolata in funzione delle grandezze che si possono considerare, si possono quindi ottenere risultati molto differenti fra loro. Burchart & Soresen si sono presi la briga di calcolare i coefficienti γ z e γ H in funzione del modo in cui sono state '

calcolate le onde (σ F ) e della probabilità di collasso. Hs

Progettazione probabilistica: Dighe a parete verticale – Stabilità del fusto. La situazione è analoga perché anche in questo caso è presente una funzione di progetto in cui sono presenti la forza peso F G , la sottospinta F U , il coefficiente di attrito μ e poi la forza delle onde F H . ch

G=

(

ch

F CT ch μ −γ F ⋅ F U ⋅ −γ F ⋅ F H ≥ 0 γF γμ U

G

ch

)

H

I coefficienti parziali delle resistenze e delle sollecitazioni, come già fatto in precedenza, vengono riassunti in ulteriori coefficienti.

Sorgono tuttavia delle problematiche. Primariamente, nel caso in cui non vengano effettuate prove sperimentali in laboratorio, poiché la formula di Goda restituisce valore in eccesso rispetto al valore medio assunto come caratteristico, vengono introdotti dei fattori di bias con cui limitare i valori della sottopressione e della forza delle

^ Vert e U ^ Hor. Si parla in questo casi di bias positivo. Inoltre, l’altezza d’onda di progetto non ha onde essi sono U significato fisico perché si prende la massima altezza d’onda possibile rispetto all’altezza d’onda significativa calcolata con tempo di ritorno pari alla vita utile della struttura e potrebbe essere estremamente alta. Quindi il coefficiente parziale riassuntivi delle sollecitazioni viene inserito nel calcolo dell’altezza d’onda di progetto:

H D=1.8 H Ts ⋅γ H L

Mentre quelle delle resistenze viene inserito nella funzione di stato:

μ ^ ^ Vert ⋅ ^ ^ G=( ^ FG −U FU ) ⋅ − U Hor ⋅ F H ≥ 0 γz Nuovamente, il coefficiente relativo alla sollecitazione γ H può essere fornito in funzione della probabilità di failure o della sigma per diversi casi:

Figura 65: in acque profonde per progettazione senza test in laboratorio, in acque profonde e con forze calcolate in laboratorio, condizioni di acque basse e senza test in laboratorio (formule di Goda), condizioni di acque basse e test in laboratorio. Nella colonna di destra i bias non sono applicati perché non si stanno impiegando formule di Goda e quindi nelle equazioni di stato non sono presenti i fattori di bias. Si note come gamma subisca una forte variabilità.

Anche per la verifica a ribaltamento è possibile condurre le medesime verifiche con gli stessi ragionamenti sopra descritti, cambia ovviamente la funzione di stato (perché c’è solo gamma_h e non anche gamma_z? perché a ribaltamento non c’è attrito?):

Figura 66: I pedici U e H nei momenti ribaltanti si riferiscono alle forze orizzontali e alla forza di Uplift

Per il calcolo dei momenti viene sempre impiegata l’altezza d’onda calcolata per un tempo di ritorno pari alla vita utile della struttura:

γ H⋅^ H TS

L

Nel caso di forze di Goda i fattori di bias assumono i seguenti valori:

Figura 67: esempio script matlab modello deterministico (livello 0).

SBOBINE AA.2020/2021 (dalla lezione 37 In poi) [lez. 38-39 sono esercitazioni MatLab]

Lezione 40: costruzione cassoni galleggianti I cassoni servono principalmente per la costruzione di dighe a parete verticale o banchine, in questa lezione vederemo come essi sono usati e vederemo degli elaborati costruttivi nei quali i cassoni sono già progettati e dimensionati, vederemo anche quali sono gli impianti di prefabbricazione e le fasi costruttive per questi elementi, vederemo quali sono i materiali utilizzati per realizzarli (di fondamentale importanza non solo per qualità ma anche per questioni di lavorabilità e impiego), vederemo come essi sono varati a seguito del loro trasporto (fatto via mare) dall’impianto di fabbricazione e infine vederemo come sono posati in opera. Porto di Civitavecchia: tipologie di utilizzo per i cassoni Il cassone cellulare ha diverse tipologie di utilizzo: - Opere di difesa a parete verticale (antemurale Cristoforo Colombo e rafforzamento dell’antemurale di prima costruzione) di dimensioni consistenti (30mx20mx19m per l’antemurale nuovo) e più contenute nel caso di opere di rafforzamento (27x8.9x13.5). - Opere infrastrutturali di banchina (terminal container), quindi come opere interne al bacino portuale. IN questo caso le dimensioni sono differenti ma si cerca comunque di sfruttare la massima potenzialità dell’impianto in termini di lunghezza (29x14x13.5); le sollecitazioni sono diverse rispetto a quelle della diga quindi questo tipo di cassoni sono meno profondi e spessi.

Figura 68

Nella fig.68 si vede invece una sezione tipica di un cassone di diga a parete verticale. Partendo dal basso si ha: - Imbasamento: di solito fatto su materiale di scapolame pulito (?) con pezzature di 5-50 Kg, sotto di esso spesso viene fatto uno scavo per rimuovere le parti limose più importanti. - Infrastruttura: emerge di circa 1.5m dal pelo dell’acqua in modo da poter lavorare per realizzare la sovrastruttura ed il muro paraonde - Sovrastruttua - Muro paraonde

Figura 69:sezione tipica cassone cellulare per dighe a parete verticale

I cassoni di banchina (oppure banchina eseguita a cassoni) sono strutturalmente simili ma hanno dimensioni inferiori e servono per creare delle banchine per cui in sommità al posto del muro paraonde vi sono gli arredi di banchina (parabordi, bitte, via di corsa per le gru, scalette alla marinara…). La sezione tipica per questo tipo di cassoni è riportata in fig.69: - Imbasamento: sottomesso rispetto al fondale esistente perché all’interno dei bacini portuali bisogna scavare piuttosto che elevarsi in altezza - Infrastruttura: - Riempimento: La parte retrostante la banchina è un terrapieno che viene poi riempito di materiale, è molto importante che questo riempimento venga fatto con uno scapolame selezionato che è detto rinfianco perché serve a scaricare il carico del piazzale trasmesso sul terreno sulla parete verticale del cassone. Se usiamo materiali non selezionati o argillosi, il sovraccarico del piazzale agisce direttamente sul cassone che potrebbe scivolare verso l’esterno e far perdere il fondamentale allineamento delle travi gru e di tutto il resto degli arredi. - Sovrastruttura: con arredi di banchina e senza muro paraonde perché la banchina deve essere usufruibile dalle navi e dal piazzale a tergo della banchina

Figura 70: sezione tipica di una banchina eseguita a cassoni

Porto di Livorno: Molo Italia Sempre rimanendo nell’ambito delle opere interne, in questo caso i cassoni sono stati utilizzati per eseguire la cinturazione perimetrale del molo prima di iniziare la costruzione vera e propria. Una volta definito il perimetro del molo (con sviluppo longitudinale di banchina di circa 1Km), l’area racchiusa dai cassoni è stata riempita con materiali

di rinfianco e con materiale di cava (nella parte centrale), in seguito la costruzione è proseguita con la posa in opera della pavimentazione e l’esecuzione delle sovrastrutture.

Figura 71:

Tavola di carpenteria di un cassone cellulare: disegni costruttivi (?) Deriva da una serie di step precedenti (progettazione esecutiva e progettazione costruttiva) e descrive ovviamente come deve essere la carpenteria del cassone (i.e come deve essere la geometria del cassone) e tiene conto di molti fattori, fra i quali: - Della reale possibilità di eseguire cassoni in un bacino portuale (se c’è il fondale…??) - Le sollecitazioni

Figura 72: Carpenteria del cassone (sx), carpenteria in sezione traversale (dx)

Nelle tavole di carpenteria è rappresentato sia in sezione trasversale che longitudinale lo spessore delle pareti interne ed esterne e il dimensionamento delle celle. La parte più importante dei disegni costruttivi riguarda il dimensionamento del ferro perché oltre a rispettare le norme di costruttive, un bravo progettista di cassoni deve avere esperienza costruttiva perché la disposizione dei ferri, il loro dimensionamento e quello dimensionamento delle candele (?) nonché le riprese devono essere fatti considerando come verrà eseguito il cassone perché spesso chi non ha esperienza rende la costruzione del cassone irrealizzabile.

Figura 73: disegno costruttivo dei ferri di armatura

Per la parte bassa del cassone (solettone, fig.73) non si hanno particolari problemi perché, certamente, si ha una grossa quantità di ferro ma per il getto si usa comunque cassero tradizionale. Per quanto riguarda invece le pareti si usa invece un cassero scorrevole quindi tutto deve essere calibrato in basse all’elevazione che giorno per giorno viene gettata (quindi in base al posizionamento delle candele e al posizionamento dei giri del ferro longitudinale)

Figura 74: solettone

Si arriva quindi ad avere una serie di tavole che definiscono la natura del cassone da costruire in termini di preparazione del ferro e del cassero

Figura 75:esempio di tavola che definisce la natura del cassone

Impianti di prefabbricazione: Si classificano come segue: -

-

Impianti fissi Impianti galleggianti: sono quelli maggiormente utilizzati perché molto versatili (possono essere spostati da un posto all’altro) in quanto possono arrivare nelle vicinanze della zona in cui viene eseguita l’opera, fermo restando che vengano correttamente protetti dal moto ondoso. Bacini di carenaggio: in questo caso i cassoni sono fatti “all’asciutto” all’interno dei bacini di carenaggio i quali poi vengono riempiti per permettere il galleggiamento del cassone. La problematica legata a questi impianti è la disponibilità del bacino perché è difficile incastrare le tempistiche della riparazione delle navi con quelle richieste per la realizzazione del cassone.

Nei primi due casi la tipologia di costruzione è identica, mentre nella terza possono essere utilizzati dei casseri tradizionali piuttosto che scorrevoli. Impianti di prefabbricazione: impianto fisso In figura è rappresentato l’impianto fisso (ora smantellato) che era presente nel porto di Taranto, rispetto agli impianti galleggianti quelli fissi hanno una struttura fissa in cemento (banchina da un lato e cassoni/pali dall’altro) che permette lo scorrimento verticale della piattaforma metallica. Una volta completati, i cassoni vengono trascinati via mare con rimorchiatori per raggiungere la destinazione finale. Vediamo le altre parti che compongono questo impianto: -

-

Aste: consentono di manovrare la piattaforma Telaio: che serve per reggere il cassero (i.e cassaforma) durante le fasi di getto del solettone e il varo del cassone Cassaforma: non ha detto nulla, ma immagino permetta di gettare in modo progressivo il cassone

Figura 76: Impianto di fabbricazione fisso (Porto di Taranto, sopra) e sequenze realizzative del cassone in un impianto galleggiante(sotto)

Impianti di prefabbricazione: impianto galleggiante Questo tipo di impianti sono definiti natanti, la loro conformazione è simile a quella degli impianti fissi solo che la parte fissa è sostituita dalle torri (come se fossero delle scatole) che consentono di muoversi in galleggiamento e consentono al bacino di immergersi durante la prefabbricazione. Anche in questo caso è presente una piattaforma metallica sul quale è costruito il cassero sopra il quale è presente il carroponte che serve per movimentare il cassero durante le fasi costruttive iniziali e durante il varo.

Figura 77: impianto di prefabbricazione galleggiante San Giorgio (sx), Delfino (dx)

Quindi le torri, opportunamente allagate, servono per fare immergere progressivamente il bacino durante la prefabbricazione in modo tale da trovare sempre un equilibrio stabile e un carico non troppo gravoso sul bacino sfruttando la sottospinta dell’acqua. L’impianto Fincosip più potente è l’impianto “Dario” (fig.77) di Salerno che consente di produrre cassoni di circa 40x27x22 m.

Figura 78: Impianto galleggiante “Dario”

Ci sono poi impianti che possono avere una struttura a catamarano come quello in fig.78, non ci sono più le torri che si allagano e consentono l’immersione dell’impianto, ma è la platea a scendere progressivamente verso il basso grazie ad un sistema di catene presente nei bighi (quelli gialli).

Figura 79: Impianto galleggiante "Benedetta"

Impianti di prefabbricazione: impianto di carenaggio Dal momento che i bacini di carenaggio sono solitamente adoperati per riparare le navi essi non hanno un fondo regolare (avranno una sorta di “piedistallo” per reggere la chiglia nave) che rende spesso difficoltoso la realizzazione di casseri regolari richiedendo un’onerosa (in termini di tempo e di denaro) regolarizzazione del piano di posa.

Figura 80: Impianto di prefabbricazione in bacino di carenaggio (sx.), riempimento del bacino per consentire il galleggiamento del cassone (dx)

Realizzazione del cassone: inquadramento generale Ipotizziamo di avere i disegni della carpenteria e dei ferri del cassone e di procedere nella realizzazione vera e propria del cassone. La prima cosa da fare è predisporre il cassero, solitamente viene fatta da ditte specializzate perché bisogna avere dei casseri sufficientemente rigidi per evitare che si deformino, ma allo stesso tempo non eccessivamente pesanti per evitare che il telaio dell’impianto non sia troppo sollecitato: bisogna quindi tenere conto della capacità portante dell’impianto e soppesare con attenzione tutti i dettagli per ottimizzare il processo. Il cassero rappresenta fedelmente la carpenteria del cassone come si vede in fig.81 ed inoltre deve avere tutte le caratteristiche per essere scorrevole perché durante le fasi di prefabbricazione, grazie ad un sistema oleodinamico di martinetti comandato, si arrampica verticalmente su delle aste che vengono progressivamente allungate. La sua altezza è solitamente di un metro e si riescono quindi a fare complessivamente 3-4 m di getto in elevazione ogni giorno. Per la realizzazione fisica del cassone vengono adottati degli elementi modulari caratterizzati da opportuni irrigidimenti che sono assiemati o sull’impianto stesso o a terra e rispecchiano fedelmente la carpenteria del cassone

Figura 81: vista in pianta del cassero

Solitamente si “disegna” sulla base della platea dell’impianto la carpenteria del cassone per facilitare la posa in opera degli elementi modulari, una volta che sono stati correttamente assemblati e disposti sono “tappati” con dei tavoli che permettono il calpestio degli addetti al posizionamento dei ferri di armatura e al getto del calcestruzzo.

Figura 82: elementi modulari con tavole di calpestio

Per quanto riguarda il solettone di base (alto dai 50 ai 70 cm), si usa un cassero tradizionale incernierato sulla platea dell’impianto che è realizzato con una pannellatura all’interno della quale viene montato il ferro del solettone di base e i ferri di ripresa per le prime elevazioni. Solitamente, per favorire lo scivolamento del cassone durante la fase di varo, fra il solettone di base e la piattaforma del bacino viene disteso o un telo in neoprene o uno strato di sabbia.

Figura 83: strato di sabbia (sx) e telo in neoprene (dx)

Nelle immagini seguenti sono messe in luce le difficoltà che stanno dietro alla realizzazione e all’utilizzo di un cassero scorrevole, in particolare sono rappresentati gli elementi che sorreggono i martinetti permettendo al cassero di arrampicarsi sulle aste di elevazione (fig.84) e altri tipi di strumentazioni che sorreggono i martinetti (fig.85).

Figura 84: strumenti di sostegno dei martinetti e delle aste di elevazione

Figura 85: altri elementi di sostegno ai martinetti

Per favorire lo scivolamento verticale della lamiera cassero quando il cemento ha raggiunto una consistenza tale sopportare il getto successivo si utilizza la paraffina, così si evita la formazione di strappi e vespai nel materiale che “non hanno valenza strutturale ma visiva” e andrebbero quindi riparati una volta ultimato il getto. Una volta completato il cassero e spalmata la paraffina, si passa alla pensione del cassero al tetto (qua si capisce perché il cassero non deve essere eccessivamente pesante) e si inizia la realizzazione del solettone di base. Le pareti laterali del solettone, come abbiamo detto, sono incernierate alla platea dell’impianto per evitare che “scappino” una volta che inizia la fase di immersione ed il solettone va sotto acqua. L’armatura del solettone è piuttosto fitta ma abbastanza tradizionale e la sua disposizione occupa tipicamente circa una giornata lavorativa che diventano due nel caso di cassoni più imponenti.

Figura 86: sollevamento della cassaforma e inizio della realizzazione del solettone (sx.) e armatura del solettone di base (dx)

Realizzazione del cassone: figure lavorative È bene che per la prefabbricazione di un cassone vengano impiegate persone ben qualificate, visti gli spazi ristretti e l’attenzione che viene posta nei dettagli (per importanza non solo tecnica ma anche produttiva), solitamente per realizzare un cassone servono 25 (ma si arriva fino a 60 per le casseforme più imponenti) persone con i seguenti incarichi: - Capo Impianto di Prefabbricazione: responsabile dell’impianto di prefabbricazione e che gestisce le fasi di manovra e movimentazione dell’impianto (affondamento progressivo, varo del cassone, assicura ormeggio dell’impianto…). - Cassaformista: gestisce la posa del ferro, la posa del cls e decide quando sollevare il cassero scorrevole per mandare avanti la produzione ed è lui a coordinare il capo squadra dei Ferraioli e quello dei Cementisti. - Capo squadra Ferraioli. - Capo squadra CLS. - Operai specializzati e comuni.

Realizzazione del cassone: platea di fondazione In modo un po’ confuso, ritorniamo all’orditura del solettone che viene realizzato come indicato in figura: posizionamento dell’armatura e getto del calcestruzzo. La fase di getto non è particolarmente complicata e avviene con una o due pompe in contemporanea.

Figura 87: disposizione delle armature del solettone (sx) e getto (dx)

Figura 88: getto ancora fresco e ferri di ripresa (sx) cassero incernierato abbattuto (dx)

Realizzazione del cassone: fusto cassone Una volta eseguito il solettone di base e abbattuti i relativi casseri, Il cassero scorrevole viene successivamente calato e copre perfettamente i ferri di ripresa e vengono effettuati i getti progressivi. Nell’immagine in fig.89 il solettone e i primi getti non sono ancora stati immersi perché, come accade per piccoli cassoni, la platea di base del bacino è ancora in grado di reggere il peso di quanto gettato e a galleggiare.

Figura 89: solettone e primi getti

Realizzazione del cassone: getto mediante nastri trasportatori Il getto del cls può essere fatto in diversi modi: - Nastri trasportatori e canala: il cls è condotto fino al tetto del bacino con dei nastri o delle pompe e, con un sistema di tramogge e canale, viene dirottato nelle celle. Questa tecnica permette di gettare piuttosto velocemente perché le canale sono spesso numerose, tuttavia può portare a problemi di segregazione accentuata della miscela e quindi non questa tecnica non è ormai più adottata. - Sistema a pompa: è tutt’oggi quello più adottato. In questo caso la betoniera scarica direttamente sulla pompa che getta direttamente nelle celle.

Figura 90: nastri trasportatori e canala (sx) e sistema a pompa (dx)

Come in tutte le opere che hanno a che fare con il cemento armato, la fase di vibrazione del getto (tipicamente fatta con un ago vibrante ad aria compressa) è fondamentale perché un’eccessiva o una ridotta vibrazione provoca rispettivamente una tendenza a disgregarsi della miscela o una sua aggregazione non soddisfacente. Realizzazione del cassone: riprese di getto Grazie all’utilizzo del cassero scorrevole è possibile eseguire giornalmente fra i 2 e i 3 metri di fusto del cassone, questo dipende da come reagisce la miscela di calcestruzzo. Per dare continuità fra le diverse fasi di getto vengono realizzati dei giunti freddi, che evitano che i cloruri entrino nella discontinuità fra i due getti e aggrediscano le armature di ripresa del giorno precedente. Questi giunti sono realizzati con malta della stessa composizione del cls che compone le pareti, a partire da prove di laboratorio si è in realtà visto che i giunti freddi garantiscono una maggiore impermeabilità rispetto alla parete e quindi da punto di debolezza diventa punto di forza.

Figura 91: giunto a freddo e altezze di costruzione

Durante la realizzazione del cassone sono indicate le altezze progressive di costruzione per tenere sotto controllo l’orizzontalità del cassone sia in fase di costruzione che in fase di galleggiamento, questo aspetto è molto importante perché l’orizzontalità del cassone determina la stabilità globale del sistema cassone-impianto che di per sé è un elemento unico ma che galleggia (in sostanza riusciamo a capire se il cassone sta affondando orizzontalmente) Realizzazione del cassone: dettagli chiave del fusto del cassone Gli angoli del cassone (sia interni che esterni) sono porzioni molto sollecitate, per questo motivo il fusto è smussato in modo da aumentare la sezione di incrocio delle pareti.

Figura 92: dettagli del fusto in corrispondenza degli angoli. Si notano gli staffoni, i martinetti e le aste del cassero scorrevole

Solitamente per eseguire una struttura non basta un solo cassone, le chiavi sono infatti i punti di unione tra i vari cassoni e sono realizzate con un inserto in acciaio all’interno del cassero. Una volta uniti i cassoni le chiavi sono riempite con delle calze di calcestruzzo e ciò consente di evitare, soprattutto per le strutture di banchina, i fenomeni di sifonamento che consistono nella perdita di materiale tra la parte a tergo del cassone e quella frontale a contatto con l’acqua. Quindi per evitare sgrottamenti (buche o avvallamenti nel piazzale), i cassoni sono uniti con un unione di posa (i,e non controllabile più di tanto), “ma si garantisce lo sgrottamento del materiale con queste calze di calcestruzzo”

Il calcestruzzo: caratteristiche, controlli e problematiche connesse Oltre all’importanza che ricopre nel definire le resistenze di progetto, lo studio del mix design deve garantire un’adeguata lavorabilità del materiale (né troppo veloce né troppo lento in fase di presa) per via della presenza del cassero scorrevole e non solo: - Lavorabilità S4 – S5: dipende prevalentemente dalle condizioni meteo in fase di getto - Tempi di presa: nei cassoni standard sono compresi fra i 45 e i 60 minuti (anche questo in funzione delle condizioni di getto), per casseri più imponenti può aggirarsi anche attorno alle 2/2.30 ore per via del tempo necessario per ricoprire un’area di getto maggiore - Autoportanza dopo la presa: questo aspetto non è facilmente definibile a priori, ci sono sicuramente dei riferimenti teorici ma, dal lato pratico, spesso si eseguono, in contemporanea all’allestimento dell’impianto, alcune operazioni (tempi di indurimento e altre) su un cassero prova di riferimento (2.5x2.5m) in funzione dei diversi tipi di mix design che sono stati studiati. In base ai risultati di queste prove viene scelta la miscela più adatta prima di eseguire il getto sul cassone. Quindi, primariamente si valutano la certificazione del cemento, quella degli aggregati, quella degli additivi e si acquisiscono tutte le informazioni necessarie riguardo la curva granulometrica: esattamente come accade nelle strutture ordinarie in c.a nel rispetto delle NTC.

Figura 93: Certificazione del cemento e degli aggregati (sx) e composizione della miscela e curva granulometrica (entrambi forniti dal produttore, dx)

Secondariamente, entra in campo la lavorabilità della miscela. Come detto, questo aspetto richiede l’esecuzione di prove in situ che sono svolte per ogni giorno di getto

Figura 94: prova di SLUMP (col cono di Abrams, sx.) e cubetti prove di resistenza in laboratorio sulla resistenza dichiarata dal fornitore (dx.)

Dando per scontato che la tecnologia attuale abbia sorpassato e messo da parte le problematiche legate al getto del calcestruzzo tramite nastri trasportatori (disgregazione della miscela non risolvibile nemmeno col vibratore) con i

sistemi di pompaggio, le possibili problematiche riguardano il distacco del copriferro (strappo) causato da un ritardo nei tempi di indurimento del cls. Questa problematica, potenzialmente, è causata da innumerevoli fattori e viene risolta andando ad intonacare la parte di cassone danneggiata in modo da proteggere le orditure interne dall’aggressivo ambiente marino.

Figura 95: strappo del copriferro e riparazione con intonacatura

Il varo del cassone e ultimazione della costruzione: Man mano che vengono eseguite le fasi di getto le torri sono allagate e l’impianto “affonda” progressivamente in modo controllato fino a che il cassone, distaccandosi dalla platea dell’impianto, galleggia. Ed è proprio in questa fase che si capisce l’importanza del telo in neoprene posizionato fra la platea ed il getto del solettone, in usa assenza il cassone non potrebbe andare in galleggiamento. Contemporaneamente all’immersione dell’impianto per permettere il galleggiamento del cassone il cassero viene sollevato e agganciato al carroponte. A questo punto il cassone è un elemento indipendente dalla platea e può essere varato con rimorchiatore tramite dei golfari che sono posizionati agli spigoli del cassone, in seguito viene traghettato fino in banchina e viene completato l’allestimento per le future operazioni (trasferimento o la posa se non è necessario trasferirlo in un altro posto). Al posto del tavolame di legno sono infatti poste delle solette di copertura prefabbricate con un foro centrale per consentire, dapprima, il riempimento d’acqua del cassone per la posa e, in seguito, per riempire il cassone di materiale inerte in quantità tale da garantire la stabilità di progetto e la resistenza alle sollecitazioni esterne a seconda che si tratti di un cassone di diga o di un cassone di banchina.

Figura 96: fasi finali della costruzione di un cassone

In seguito viene completato il getto del piano di calpestio (un’ulteriore soletta) e, se il cassone viene trasferito in galleggiamento tramite rimorchi, i fori sono tappati per favorire il suo trasporto da un porto ad un altro. Nella fig.96 si nota la presenza dei ferri di ripresa per la creazione delle sovrastrutture di banchina.

Figura 97: soletta di copertura finale e getti ripresa per le strutture di banchina (in questo caso un muro paraonde)

Trasferimento del cassone: Il trasferimento deve avvenire con le autorizzazioni della capitaneria di porto perché il cassone è un natante stagno a rimorchio, vengono perciò eseguiti diversi calcoli (di stabilità nautica, del peso delle zavorre di stabilità da inserire nelle fasi di copertura, varo e navigazione) con le diverse condizioni di onda che sono poi esposti sia al RINA che alla capitaneria di porto.

Figura 98: stabilità nautica e quantità delle zavorre per stabilizzare il cassone durante la navigazione

Inoltre, RINA e autorità portuale devono approvare anche il piano di rimorchio (disposizione del cavo di rispetto e dei cavi di rimorchio, luci,…) in modo trasferire la struttura in completa sicurezza.

Figura 99: Cassone in partenza, il cilindro bianco è il cavo di rispetto che serve come sostituto in caso di rottura del cavo di rimorchio

Figura 100: esecutivo del piano di rimorchio (sx) e dettaglio (dx.)

In fase di trasporto portuale il cavo bianco di fig. 99 ha lunghezza molto limitata, ma in fase di trasporto in mare aperto può essere disteso fino a raggiungere una lunghezza di 200 m. Se il trasporto avviene su brevi distanze (i.e in ambito portuale) non vengono messe le celle di copertura, ma vengono messe delle passerelle per la posa del cassone così da garantire il movimento sul cassone stesso.

Figura 101: trasporto di cassone privo di solette.

Arrivo del cassone: Anche questa operazione va studiata nel minimo dettaglio perché non è rimandabile, tutto viene predisposto affinché il cassone venga accolto da un pontone che ha il compito di movimentare un sistema di pompe flight che permettono di portare l’acqua all’interno del cassone e consentirne la posa nella fase finale. In seguito , il cassone è assicurato, con dei cavi tierfort (?i.e cavi di acciaio manovrati manualmente), a delle boe/strutture esistenti in modo da essere collocato topograficamente nella sua posizione finale. Queste operazioni vanno eseguite con molta attenzione non solo perché la precisione richiesta è dell’ordine del centimetro ma anche perché si sta manovrando una struttura molto grande con un’inerzia elevata e, un eventuale errore di manovra, porterebbe al danneggiamento del cassone stesso e a quello delle strutture su cui impatta. Una volta raggiunta la sua posizione finale viene ulteriormente zavorrato d’acqua per raggiungere la sua posizione definitiva sul fondale, in seguito viene zavorrato con il materiale lapideo previsto nel progetto il quale espelle via via l’acqua in eccesso all’interno del cassone e si “sostituisce” all’acqua. Lo zavorramento lapideo viene posizionato tramite pontone o tramite camion (i.e via terra) se le solette di copertura sono calpestabili; contemporaneamente viene portata avanti l’operazione di riempimento del rinfianco per raggiungere la configurazione grezza della banchina sopra la quale verrà eseguita la sovrastruttura (pavimentazioni, servizi…)

Figura 102: il pontone consente di movimentare delle pompe che portano acqua all'interno del cassone (sx) e riempimento tramite pompe (dx)

Figura 103: zavorramento con pontone (sx) e camion (dx)

Figura 104: riempimento del rinfianco.

[nella parte finale min. 1:36 ca. fa vedere un video riassuntivo delle varie operazioni una marketta ma ben fatta]

Lezione 41: introduzione alle opere di accosto Introduzione: Le opere di accosto, come si può capire dal nome, permettono di fare “accostare” la nave e di farla attraccare per realizzare le operazioni di carico/scarico in completa sicurezza che è lo scopo per cui sono realizzate le infrastrutture portuali. Più formalmente possono essere definite come l’insieme dello spazio a terra dedicato alle operazioni portuali. Oltre alla sicurezza, un’altra caratteristica fondamentale delle opere di accosto è il pescaggio (i.e la profondità massima a cui arriva la nave rispetto al pelo dell’acqua) per via del cosiddetto gigantismo delle navi: navi sempre più grosse richiedono pescaggi sempre maggiori. Il gigantismo non è un “problema” che si trovano ad affrontare solo le opere di nuova costruzione ma anche quelle esistenti, aumentare il pescaggio richiede infatti di effettuare degli interventi alla base dell’opera di accosto che possono presentare delle criticità specifiche. Generalmente questo tipo di opere sono ubicate in zone riparate all’interno dei porti, tuttavia, nel caso di ormeggi isolati per rinfuse liquide o terminali petroliferi, possono trovarsi anche in zone non protette perché le navi che trasportano queste sostanze non necessitano di uno specchio d’acqua completamente protetto e possono subire le agitazioni del moto ondoso. Per ognuna delle opere di accosto esposte verranno forniti degli schemi di calcolo elementari per una progettazione preliminare qualitativa (concept design) di predimensionamento. Funzioni principali e compiti funzionali delle opere di accosto: Oltre alle già citate funzioni di carico/scarico ce ne sono altre: -

Carico/scarico delle merci e dei passeggeri Deposito totale/parziale delle merci Rifornimento e riparazione (in fase di galleggiamento) Sosta di attesa delle navi Fornire un dispositivo di appoggio o di ormeggio delle navi Consentire l’installazione e il funzionamento di mezzi terrestri di carico/scarico Assicurare il collegamento tra nave e terraferma con i più diversi mezzi Consentire il deposito, sia di transito che di sosta delle merci Fornire alle navi i necessari servizi

Nel progetto di questo tipo di strutture diventa quindi fondamentale conoscere non soltanto la portanza del terreno sottostante ma anche la funzione che esso dovrà assolvere (con conseguenti carichi di funzionalità e operatività che riceverà nel corso della sua vita utile), infatti ad una diversa funzione corrispondono infatti diversi carichi di progetto. Le diverse tipologie costruttive di banchine vanno di pari passo sia con la disponibilità di spazio a terra sia con le possibili modalità di realizzazione. Prima tipologia delle opere di accosto: calate formate da piazzali, delimitati lato mare da banchine, distribuiti all’interno del porto in sporgenti, ponti o calate di riva Molto banalmente, questa tipologia viene realizzata quanto il terminal ha bisogno di una linea di ormeggio e di uno spazio a tergo dove si eseguiranno delle operazioni. In altre parole, possono permettere di svolgere tutti i compiti di servizio e di deposito inerenti al traffico portuale nella più ampia misura: non si ha soltanto il prospetto di banchina ma anche gli spazi a tergo, quali i piazzali, in cui svolgere tutte le attività necessarie.

Figura 105: esempio di opera di accosto sporgente all’interno del porto (si nota chiaramente la linea originale di riva)

Seconda tipologia delle opere di accosto: pontili Queste opere di accosto si differenziano dalle precedenti per la loro assai limitata, o nulla, disponibilità al deposito delle merci (i.e non viene realizzato un piazzale a tergo dell’opera di ormeggio), sono quindi indicate per il trasporto di merce che non deve essere posizionata sul piazzale ma che può essere spostata con organi di movimentazione ridotti (e.g i nastri trasportatori da carbone, le cosiddette rinfuse solide). Solitamente, sono realizzate per risparmiare spazio a terra o per “conquistare” un pescaggio tale da garantire l’attracco delle navi che in prossimità della costa potrebbe non sarebbe possibile, si potrebbero certamente fare delle opere di dragaggio per aumentare il pescaggio in costa ma richiederebbero un impegno continuo ed esoso.

Figura 106: opera di accosto di secondo tipo

Terza tipologia delle opere di accosto: insieme di Dolphins o Ducs D’Albe Un insieme di Dolphins forma delle opere di accosto isolate (sperate dal porto o in mare aperto) che funzionano come solo appoggio o ormeggio della nave. Sono impiegate soprattutto nel campo del trasporto delle rinfuse liquide perché esse non hanno bisogno di spazi specifici presso la banchina in quanto possono essere trasportate grazie alle tubazioni posizionate sul fondo del mare. Questo tipo di opere devono essere abbastanza robuste perché, non godendo della protezione fornita dalle varie opere portuali, deve fare fronte alle intense sollecitazioni trasmesse dalla nave anche nel caso di condizioni meteomarine poco favorevoli.

Figura 107: opera di accosto realizzata tramite i Ducs d'Albe

Quarta tipologia delle opere di accosto: ormeggi isolati / in mare aperto Anche queste tipologie di opere corrispondono sostanzialmente ad ormeggi puntuali a cui la nave si aggancia con una cima e sono realizzate per l’industria oil and gas perché è l’unica tipologia di merce che si presta per questo tipo di opere. Le operazioni di carico/scarico sono infatti effettuate tramite delle condotte galleggianti che, in prossimità della boa, sono portate sul fondo per destinare il prodotto altrove (fig. 108 sx.), si dice in questo caso che la condotta raggiunge il corpo morto della boa. In alternativa, la condotta può essere interamente in galleggiamento fino al campo boa (fig. 108 dx.) dove una condotta porta la merce fino al corpo morto, quindi in questo caso la condotta galleggiante non raggiunge direttamente il corpo morto.

Figura 108: opera di accosto di IV tipo.

Mentre le opere isolate (Ducs d’Albe) sono posizionate all’interno di un raggio di azione limitato (i.e le correnti e le onde non devono essere eccessivamente forti) per via della necessità di fare accostare la nave alla struttura, questi campi boa si trovano in mare aperto perché sono al servizio di terminali petrolchimici, di conseguenza l’organo di scarico/carico è indipendente dal punto di accosto. La posizione in mare aperto degli ormeggi isolati è particolarmente pratica perché evita di effettuare ogni volta lo scarico a terra della merce estratta dal campo di trivellazione, la quale viene invece raccolta nei campi boa per essere poi smistata altrove risparmiando inutili viaggi. Ci sono altri motivi per cui si realizzano questo tipo di opere: -

Difficoltà di realizzare pescaggi importanti per le petroliere nei porti Sicurezza nei confronti del trasporto di merci pericolose e/o infiammabili

Classificazione costruttiva delle opere di accosto: Oltre ad una classificazione in funzione degli spazi disponibili a terra (come abbiamo appena fatto), un’ulteriore classificazione delle opere di accosto può essere fatta considerando la metodologia costruttiva e la configurazione costruttiva che le caratterizza. Una prima caratterizzazione distingue fra le famiglie di opere di accosto con scarpata e fra quelle a parete continua, nel primo caso è presente una scarpata nel terreno sotto la banchina, mentre nel secondo caso si realizza un muro continuo.

Figura 109: opere di accosto a parete continua (sx.) e con scarpata (dx.)

Figura 110: classificazione delle opere di accosto per tipologia costruttiva

All’interno delle banchine a parete continua, si distinguono ulteriormente due famiglie di opere: banchine a parete continua pesante e banchine a parete continua leggera. Nel primo caso la funzione di muro di sostegno viene espletata grazie al peso stesso della banchina (i.e la spinta del terreno è contrastata grazie al peso del muro) e si distingue ulteriormente fra: -

Fondazione a parete continua pesante superficiale, in cui l’opera appoggia (quasi) direttamente sul fondale coi suoi pesanti elementi monoliti. Queste fondazioni possono realizzate in molti modi: o A piloni su massi prefabbricati, come nelle dighe a parete verticale in cui i massi sono messi uno sopra l’altro. In questo caso il muro di sostegno non dovrà sopportare la spinta data dalle onde (all’interno di un porto il moto ondoso è pressoché nullo), ma dovrà contenere la spinta del terreno a tergo. Erano la tipologia più utilizzato fino all’avvento dei cassoni o A cassoni di c.a prefabbricati, come visto nella scorsa lezione. Sono i più utilizzati perché la metodologia costruttiva è molto efficace, rapida e standardizzata o Muri in c.a prefabbricati o gettati in opera

-

Fondazione a parete continua pesante profonda, attenzione non significa che si va a scavare in profondità! Questo tipo di opere sono solitamente realizzate con: o Cassoni autoaffondanti: i cassoni autoaffondano pian piano nel terreno (lo vederemo più avanti). Va detto che questo tipo di soluzione al giorno d’oggi, per motivi legati alla gestione del lavoro e di sicurezza, non è più adottata.

Nel secondo caso invece il terreno a tergo del muro di sostegno non viene sopportato grazie alla massa del muro stesso ma grazie ad un elemento incastrato nel terreno, qua si distingue solamente in: -

Palancole: Pareti in c.a o c.a.p:

All’interno delle banchine con scarpata si distingue invece in: -

Banchine con scarpata pesanti con fondazione superficiale o profonda che possono essere realizzate con: o Speroni di massi con impalcato ad arco, sono tecnologie un po’ più antiche che si usavano quando non si avevano molte soluzioni costruttive e la manodopera costava poco o A speroni di cassoni con impalcato a solettone, queste strutture sono più moderne sono realizzate posizionando un solettone sopra i cassoni (gettati in opera o prefabbricati). In sostanza, queste sono banchine per cui si realizzano dei piloni di massi o dei cassoni e, tra un pilone e l’altro, si lascia un “buco” dove viene realizzata la scarpata e sopra viene messo l’impalcato -

Su sostegni isolati (a giorno) che possono essere realizzate con: o Pali infissi nel terreno: si conficcano una serie di pali nel terreno sui quali viene realizzato l’impalcato. o Piloni con fondazione diretta su pali: in questo caso il pilone è appoggiato sul fondale marino oppure conficcato nel terreno se le capacità portanti del terreno sono sufficienti La differenza è che i pali sono progettati per sopportare esclusivamente un carico verticale, mentre i piloni per via delle sezioni maggiori che li caratterizzano sopportano anche carichi orizzontali.

Figura 111: opere di accosto continue a fondazione superficiale pesante a piloni di massi prefabbricati (sx.), a cassoni prefabbricati in c.a (dx.)

Figura 112: opere di accosto continue leggere con tiranti realizzati in modi differenti (dx e centro), con accorgimenti particolari (muri danesi dx.)

Figura 113: banchine a giorno su piloni con tirante

Lezione 42: progettazione delle opere di accosto Nei primi minuti fa un’ulteriore recap delle tipologie di opere di accosto nella classificazione appena vista, è interessante notare che tanto per le fondazioni pesanti continue quanto per quelle leggere continue, le caratteristiche del terreno influenzano la tipologia di opera di accosto realizzabile. Da un lato, nel caso di fondazioni pesanti, il terreno deve avere una sufficiente capacità portante; dall’altro, nel caso di fondazioni leggere, il terreno deve essere in grado si sopportare la presenza di pali infissi. Inoltre, la tipologia di materiali che verranno impiegati nell’opera di accosto permette di capire quale manodopera andrà richiesta per la realizzazione.

Esempi storici di opere di accosto realizzate: Fra le altre abbiamo citato delle banchine costruite ad Algeri e realizzate con piloni di massi impilati uno sull’altro con riempimento a tergo.

Figura 114: esempi storici di opere di accosto

Anche per quanto riguarda delle banchine realizzate a Nador (Marocco) si hanno dei piloni impilati che però in questo caso sono cavi e sono riempiti con ghiaia per rendere pesanti gli elementi e contrastare la spinta del terreno . Nel caso di Livorno sono stati invece impiegati dei cassoni autoaffondanti, gli elementi tratteggiati sono dei cassoni prefabbricati cavi che sono terminati con delle sezioni a spigolo. Se il terreno è abbastanza cedevole, una volta che il cassone viene adagiato su di esso sprofonderà verso il basso. Chiaramente, lo sprofondamento dovrà avvenire fino alla quota interessata in modo che non agisca solo la componente legata al peso proprio del cassone ma anche quella legata all’affondamento. Anche a Venezia sono stati realizzati dei cassoni autoaffondanti che però funzionano in maniera leggermente diversa rispetto alla precedente soluzione (questa tecnologia è un po’ antiquata e ormai non si usa più). La zona evidenziata in figura viene pressurizzata in modo che l’acqua non rifluisca al suo interno, così facendo degli addetti ai lavori possono entrarvi passando per il foro centrale ed effettuare così uno scavo che permette l’affondamento progressivo del cassone. Oltre alle difficoltà tecniche, questo tipo di realizzazione comporta un’attenzione particolare alla sicurezza sul lavoro, gli operai, lavorando sotto una pressione maggiore di quella atmosferica, dovranno trascorrere del tempo nella camera iperbarica per ristabilizzare i livelli di pressione del sangue.

Figura 115: esempi storici di opere di accosto

A Pasaies (paesi baschi) abbiamo invece un esempio di una tecnologia più moderna, essa è realizzata con cassoni suddivisi in due celle, una è riempita di un materiale lapideo mentre l’altra (per motivi di risposta idraulica all’interno del bacino) è riempita di acqua. Nel porto di Genova (Sestri) abbiamo invece un esempio di banchina a scarpata su piloni di massi con arco, la funzione della scarpata è quella di dissipare l’energia del moto ondoso

Figura 116: esempi storici di opere di accosto

Nel porto di Rouen è invece presente un esempio di banchina a giorno sempre con scarpata, sotto il piano di banchina è presente un vuoto e la banchina appoggia su pali a vista. Nel porto di Le Havre è invece presente una banchina a giorno che poggia invece su piloni (lo si nota per via della sezione molto più consistente). In fig.119 è riportato anche un esempio di muro danese, di fatto è una struttura con una palancola verticale ed una piattaforma di scarico fondata su pali.

Figura 117: esempi storici di opere di accosto

Nel porto di Savona è invece presente una diga su palancola in c.a, in questo caso si distingue nettamente l’elemento che realizza la mensola. A Marsiglia è invece presente un’opera di accosto realizzata con gabbioni (scatoloni realizzati con palancole, in sostanza un mix fra cassoni e palancole) successivamente riempiti. Infine, nel porto di Genova (ponte Parodi), vi è un esempio di ampliamento di una banchina. A partire da una banchina preesistente costituita da piloni di massi è stato realizzato un aggetto per raggiungere un maggiore pescaggio tramite una banchina a giorno.

Figura 118:: esempio storico di opere di accosto

Osservazioni finali: Oggigiorno le tecnologie più frequentemente utilizzate sono: -

A cassoni Su pali (che alle volte possono essere sostituite da piloni) Su palancole

Questo perché: - Il livello tecnologico raggiunto per queste costruzioni è molto elevato - sono particolarmente affidabili - il livello di standardizzazione è molto elevato e la produzione ne risente positivamente Le tipologie che invece sono ormai desuete sono la n.1 e 2 (cassoni impilati) la n.3 e 4 (cassoni autoaffondanti) e la n.6 (piloni su scarpata). L’esempio di fig.118 porta con sé diverse problematiche perché l’adeguamento funzionale delle banchine preesistenti deve essere fatto senza mandare in crisi le strutture già costruite, per questo motivo è spesso preferibile realizzare una banchina ex novo

Fattori che influenzano il tipo di banchina da realizzare: Ci sono 6 fattori in particolare che ci guidano nella scelta: - Caratteristiche dei fondali: questo fattore è molto importante e incide parecchio nella scelta progettuale, se ad esempio volessimo realizzare delle palancole direttamente su terreno roccioso non le riusciremmo ad incastrare, ma allo stesso tempo, se la roccia è ricoperta da un terreno scadente possiamo pensare di infiggere delle palancole che arrivano fino allo strato di roccia per appoggiarvisi. Se invece il terreno ha buone caratteristiche portanti possiamo mettere direttamente un’opera a gravità. Perciò per prima cosa vanno condotte delle indagini geotecniche per capire la natura dei fondali sui quali vogliamo realizzare l’opera, nonché l’eventuale stratigrafia per individuare gli strati di resistenza. - Destinazione (tipo di nave o imbarcazione): a seconda del terminale che poggia sulla banchina si avranno diversi carichi che sollecitano l’opera, anche per quanto riguarda eventuali e possibili urti. - Profondità fondale e pescaggio: a seconda della profondità di pescaggio richiesta le strutture possono essere più o meno onerose. Se si considera ad esempio il caso delle palancole può risultare difficoltoso infiggere nel terreno pali che raggiungono anche i 30 m di lunghezza, per quanto riguarda le strutture esistenti un aumento del pescaggio potrebbe invece provocare scalzamenti o ribaltamenti dell’opera. - Modalità di realizzazione (all’asciutto, da mare): a seconda dei casi può essere infatti conveniente adottare una soluzione piuttosto che un'altra. È infatti molto improbabile che saremo in grado di posare un cassone se si deve guadagnare il lato terra perché bisognerebbe movimentare molto terreno per posizionarlo , se si dovesse realizzare ad esempio una cinturazione per la futura realizzazione della banchina è meglio impiegare delle palancole piuttosto che dei setti in c.a che vengono realizzati all’asciutto. - Risposta idraulica: corrisponde alla capacità della banchina di smorzare l’eventuale moto ondoso residuo all’interno degli spazi portuali protetti che può generarsi per via della configurazione stessa del porto. Solitamente per fare fronte a questa problematica si utilizzano delle opere di accosto a scarpata oppure dei cassoni provvisti di camere interne di dissipazione. - Disponibilità dei materiali dei mezzi d’opera e della manodopera: basti pensare ai cassoni, come si è visto nella scorsa lezione è necessario avere a disposizione una ben definita e qualificata manodopera nonché materiali e impianti di produzione ben precisi per realizzarli. Anche l’infissione delle palancole richiede un alto livello di competenza della manodopera ad esempio, questi tre aspetti vanno quindi di pari passo : potrei avere di cassoni super tecnologici, ma se non ho la disponibilità di manodopera in grado di movimentarli né di adeguati impianti di produzione diventano inutili! Progettazione delle opere di accosto: stati limite La progettazione delle opere di accosto segue la filosofia degli stati limite, vengono quindi individuate delle combinazioni di carico che sono associate ai diversi stati limite, i quali a loro volta rappresentano differenti meccanismi di collasso. All’interno di ogni stato limite andranno verificate: -

Capacità portante del terreno Durabilità dell’opera La fatica Capacità di sopportare carichi accidentali

Gli stati limite di riferimento sono invece i seguenti: - Ultimate limit state (ULS): quando la struttura collassa in questo stato limite deve essere completamente demolita e ricostruita. Questo stato limite è associato quindi al rischio globale e locale di collasso - Accidental limit state (ALS): rappresenta il collasso solamente globale della struttura (i.e crisi completa) in situazioni accidentali quali terremoti, esplosioni, urti improvvisti (i carichi energetici delle navi fuori controllo sono molto elevati).

-

-

Fatigue limit state (FLS): le operazioni ripetute di scarico e carico in ambito portuale sono la prassi e possono dare luogo a fenomeno di fatica (ormeggio e disormeggio, moto ondoso, interazione con organi di manovora…) Serviceability limit state (SLS): la struttura non va in crisi completa ma comunque non riesce più a soddisfare i requisiti per la quale è stata costruita, questo ha chiare ed evidenti ricadute economiche e logistiche dell’intero sistema portuale

Progettazione delle opere di accosto: vita utile In generale può essere descritta in diversi modi, solitamente, in ambito portuale, si ritiene che la vita utile ottimale di un’opera sia l’orizzonte temporale per cui la struttura riesce a svolgere i suoi compiti senza la necessità di interventi strutturali (major repaires). In base a questa definizione la vita utile della struttura può essere descritta come: -

Uno stato limite rilevante Un numero di anni fissato Un livello di affidabilità all’interno di un periodo temporale fissato

Solitamente la vita utile di un’opera è definita a partire da normative, se si volesse invece calcolarla in modo più preciso ci sarebbero alcuni fattori da tenere in considerazione: - Esperienza del progettista: un progettista esperto capisce quali sono gli aspetti peculiari del progetto che influenzano la vita utile dell’opera in questione - Standard di progetto da normativa: possono darci delle indicazioni utili per determinare la vita utile - Materiali: l’ambiente marino è particolarmente aggressivo e quindi bisogna tenere in conto i processi di degradamento dei materiali - Tipologia costruttiva e abilità del costruttore: anche se in Italia non capita perché non sappiamo chi costruisce l’opera, può capitare che la ditta progettista sia la stessa che realizza l’opera e quindi, in accordo col costruttore, si può scegliere la tipologia di opera più adatta per garantire una certa vita utile. - Monitoraggio e manutenzione: il tipo di manutenzione che verrà effettuata, nonché il monitoraggio che verrà su di essa svolto possono influenzare positivamente la vita utile dell’opera - Investimenti: a seconda dell’importo che viene investito in una certa infrastruttura la vita utile dell’opera è differente, a importi elevati dovrebbero corrispondere vite utili piuttosto lunghe per rientrare della spesa fatta. Una buona progettazione dovrebbe tenere conto anche di costi riparazione, non si può considerare solo il costo realizzativo della struttura, se lo si facesse si sottovaluterebbe la vita utile dell’opera

Figura 119: schema grado di danneggiamento della struttura in funzione del tempo e della corrosione della struttura

Questi fattori permettono di definire quindi tre aspetti che permettono di giudicare la vita utile di un’opera: - Una probabilità di collasso limite accettabile - La probabilità che un particolare stato limite possa verificarsi durante la vita utile dell’opera

[lez 43-44: seminario progettazione opere portuali, interessante]

Lezione 45: opere di accosto – banchine a gravità (I) Carichi sulle opere di accosto: Ci sono 3 principali famiglie di carichi che gravano sulle banchine portuali e che vanno considerati in sede di progetto, ora ci soffermeremo soprattutto sul secondo e terzo gruppo: 1. Carichi lato mare 2. Carichi dovuti al peso proprio, quali: a. Verticali i. Peso proprio (sono quelli più consitenti) 1. Banchina stessa (struttura) 2. Costruzioni accessorie (sovrastruttura) ii. Carichi dovuti agli apparati di movimentazione e carichi accidentali (superimposed loads) 1. Carico dei macchinari 2. Carico neve 3. Forze dovute alle azioni del ghiaccio b. Orizzontali (dovuti al comportamento della banchina) quali: i. Calo delle temperature ii. Gru e mezzi d’opera 3. Carichi lato terra a. Orizzontali i. Spinta del terreno di riempimento dovuta al peso peso proprio ii. Spinta del terreno di riempimento dovuta al peso che grava su di esso iii. Spinta del terreno di riempimento dovuta ai carichi interstiziali b. Verticali i. Dovuti ai pesi propri delle installazioni e alle eventuali superimposizioni sul piazzale (magazzini di stoccaggio, zone di deposito merci…) Carichi orizzontali sulle opere di accosto: land side (i.e carichi del terreno) Il carico principale di progetto in questo caso è quello dovuto al riempimento e ai carichi accidentali che possono causare dei carichi orizzontali sulla struttura di ormeggio. Per comprendere meglio i vari addendi che compongono questo carico si può fare riferimento alla fig. 124, si nota infatti che il diagramma delle pressioni parte da un valore:

p0=q K a Ove K a è il coefficiente di spinta attiva (di fatto un coefficiente che permette di trasformare le forze verticali in forze orizzontali su piano di riferimento), man mano che si scende in profondità la pressione cresce in funzione del peso specifico del terreno emerso (i.e sopra il livello di falda) γ e e, una volta raggiunto il livello di falda, la crescita della pressione è proporzionale ad un γ i (immerso):

pe =(γ ¿¿ e ∙ z )∙ K a ; pi=γ i ∙(z−h)∙ K a ¿ Una volta raggiunto il fondale, la spinta attiva del riempimento è contrastata dalla spinta passiva del terreno proporzionale al coefficiente di spinta passiva (di fatto un coefficiente che permette di valutare la resistenza offerta dal terreno ad una spinta orizzontale):

pf =γ 'i ∙ ζ ∙ K p

Figura 120: profilo delle pressioni al variare dell'approfondimento

I concetti di spinta attiva e passiva permettono di ottenere il diagramma delle pressioni agenti sulla struttura grazie al quale è possibile ricavare le spinte esercitate che verranno poi confrontate con dei valori ricavabili da normative, in altre parole la nostra struttura dovrà essere in grado di contenere queste spinte. In via del tutto generale si può assumere come peso specifico del terreno (secco) il seguente valore:

γ ≅ 1.8 tonn/m3 Mentre per l’acqua:

γ w =1.026 tonn /m3 Il peso dell’unità di volume del materiale saturo dipende dalla sua porosità (ipotizziamo 0.3) e dal peso specifico dell’acqua:

γ sat =2.1tonn /m 3 Tuttavia, se il terreno/corpo è immerso in acqua il peso dell’unità di volume diminuisce per via della spinta di Archimede esercitata che in sostanza “alleggerisce” il corpo:

γ ' =γ sat −γ w =1.1 tonn/ m3 Ed è per questo motivo che la crescita nel diagramma delle pressioni è molto più contenuta una volta superato il livello di falda. I coefficienti di spinta attiva e passiva dipendono dalla configurazione geometrica del problema e, in condizioni di piano campagna orizzontale, si semplificano notevolmente:

K a =tan 2

( π4 − ϕ2 ) ; K =tan ( π4 + ϕ2 ) 2

p

Ove ϕ è l’angolo di riposo del materiale a tergo, in altre parole se scaricassimo una certa quantità di materiale su piano orizzontale esso si disporrebbe per natura con un certo angolo in condizioni indisturbate.

Figura 121: significato fisico dell'angolo di riposo ϕ

In via del tutto generale è inoltre possibile affermare che:

K a 1 Inoltre, quando si ha a che fare con opere di sostegno, si vuole che ϕ sia il più grande possibile perché se esso aumenta diminuisce il coefficiente di spinta attiva e, di conseguenza, anche la pressione ( p=γz K a). Per questo motivo nelle opere marittime, subito a tergo della struttura, si tende ad utilizzare un materiale di riempimento specifico per diminuire il più possibile K a . Carichi verticali principali sulle opere di accosto: sovraccarichi funzionali Questi carichi dipendono dal tipo di terminale che si sta progettando (container, rinfuse solide, rinfuse liquide…), in altre parole ora vogliamo definire i carichi q di fig.124 che agiscono sul piazzale di banchina. Può sembrare una cosa difficile ma non lo è, oggigiorno i terminali portuali sono infatti altamente specializzati così come lo sono anche i mezzi di movimentazione, di conseguenza i sovraccarichi funzionali sono precisamente definiti . Da un altro punto di vista, questa specificità dei carichi non permette di standardizzare il processo progettuale perché la loro variabilità è piuttosto marcata a seconda dei casi dipendendo dal tipo di traffico commerciale che si realizzerà nel terminale, e non tanto dalla dimensione della nave. Infatti, i mezzi di movimentazione possono variare notevolmente anche all’interno di uno stesso terminale e l’unico modo per far fronte a questa variabilità è avere le specifiche del terminal così da dimensionare i carichi correttamente (se il costruttore monta dei mezzi di movimentazioni diversi rispetto a quelli che dichiarati in fase di progetto si potrebbero avere danni alla struttura). Infatti, nei terminali petroliferi, le navi sono molto grandi (300/400m) e possono scaricare migliaia di tonnellate di rinfuse ma non oltrepassare carichi di 10 kN /m2 (un valore non troppo alto). Viceversa, i terminali di supporto per l’industria petrolifera offshore accolgono navi solitamente piccole ma che trasmettono carichi di 50−200 kN /m 2 per via delle attrezzature altamente pesanti che movimentano.

Figura 122: Tabella riassuntiva dei principali sovraccarichi (indicazioni estremamente generiche), il primo gruppo è legato ai carichi dovuti agli organi di movimentazione, il secondo a carichi semi-permanenti, il terzo invece agli accosti speciali.

Dalla fig. 126 si nota che: - Quando la variabilità dei carichi non è precisamente controllabile si introduce il termine ≥ - Il peso dovuto ai container è calcolato in funzione di quanti ne sono impilati (two high, four high) e se sono pieni oppure vuoti (empty/full) - Con Heavy vehicles, heavy crane, crawler crane etc. that operate from the berth front and 3 m inboard si intende quanto riportato in fig. 127 (sx) - Con Heavy vehicles, heavy crane, crawler crane etc. that operate from the berth front and 3 m behind si intende quanto riportato in fig. 127 (dx) - Con general ro/ro loads si intende il carico dovuto al via-vai di mezzi roll on e roll off - Gli oil jetties (pontili petroliferi) non raggiungono pesi eccessivamente elevati perché solitamente sono appesantiti solamente dagli oleodotti necessari a trasportare le rinfuse liquide.

Figura 123: ship to shore crane (sx), mezzo di movimentazione interno al piazzale (dx)

A questo punto è chiaro che la progettazione di questo tipo di opere deve essere portata avanti a stretto contatto con i suoi concessionari (chi vince la concessione) per rispettare tutti i requisiti funzionali attesi. La fig.128 vuole solo mettere in evidenza come, a seconda del tipo di mezzo di movimentazione, i carichi sono trasmessi alla banchina.

Figura 124: straddle carrier (sx), camion (centro), mobile crane (dx)

La tabella di fig.128 ci dice come, qualitativamente, varino i pesi trasmessi alla banchina dalle ruote quando il mezzo è in movimento (wheel load) e dai punti di appoggio del mobile crane (che evitano un ribaltamento del mezzo durante la movimentazione delle merci) durante le operazioni di carico/scarico (outrigger load). I carichi trasmessi dalle ruote durante il movimento non variano molto perché “è tutta chiusa e non sta caricando molto”, variano parecchio invece i carichi trasmessi dagli appoggi per via dell’aumento del momento flettente che aumenta all’aumentare dello sbalzo.

Figura 125: carichi qualitativi in un mobile crane

Lezione 46: opere di accosto – banchine a gravità (II) Carichi verticali principali sulle opere di accosto: STS I dati di fig.129 sono forniti anche per i cosiddetti ship to shore cranes (STS, fig.126 sx.), fondamentali quando si realizzano i terminali container. Questi mezzi possono essere anche molto grandi sia in larghezza che in altezza (dell’ordine delle centinaia di metri in larghezza in altezza) e possono quindi interferire, come nel caso di Genova, con gli spazi aerei sovrastanti. In termini di carichi gli STS non movimentano un grande quantitativo di container contemporaneamente (massimo uno o due alla volta), ma, per via dei grossi sbalzi che possono raggiungere, possono sollecitare la banchina con un elevato momento flettente, in particolare per quanto riguarda i carichi concentrati lato banchina.

Figura 126: dimensioni tipiche di una ship to shore crane (STS)

La produzione di queste gru è piuttosto standardizzata e quindi non vi è molta variabilità costruttiva , questo però permette al produttore di fornire delle tabelle (fig.130) in cui, a seconda delle capacità di carico, della distanza fra le due rotaie (rail gauge), del peso proprio della gru, viene fornito il massimo carico dovuto alle rotaie lato mare ( max. wheel load water side) e lato terra (land side). Ma non solo, il produttore fornisce anche altri tipi di dettagli costruttivi come indicato in fig.131 e fig.132.

Figura 127: tabella per una STS a otto ruote per rotaia

La gru è l’elemento più costoso dell’intero terminale, solitamente infatti ci sono degli accordi fra l’autorità che gestisce il porto e i concessionari secondo i quali la prima provvede alla realizzazione di tutti gli elementi infrastrutturali per realizzare un terminale mentre il secondo provvede a fornire i mezzi di movimentazione. Questo

perché il concessionario conosce molto bene che navi arriveranno nel terminale e di conseguenza anche le necessità operative in termini di movimentazione merci.

Figura 128: a seconda della posizione della gru rispetto al filo della banchina, solitamente, dove sono presenti i binari, il carico viene scaricato direttamente su fondazioni più profonde.

Figura 129: carichi trasmessi a terra a seconda dell'interasse delle ruote per una gru con 530 kN di capacità di sollevamento

Quindi in base a tutte queste informazioni (che sono reperibili dal concessionario) è possibile ricostruire i carichi operativi sulla banchina. Carichi verticali principali sulle opere di accosto: Osservazioni - Se non conosciamo bene il carico da applicare alla banchina possiamo prendere come riferimento quello dei container perché, seppur possano presentarsi diverse casistiche (pieni/ vuoti), hanno una variabilità definita: o Due container impilati da 20 ft. pesano 25-35 kN/m 2 a seconda del carico. Il container da 20 ft corrisponde il cosiddetto TEU (6.06 x 2.44 x 2.44 m), unità di misura per capire quanti container movimento un porto (Genova si aggirava, in epoca pre COVID, sui 1 500 000 TEU movimentati) o Un container di 20 ft vuoto pesa attorno ai 19 – 22 kN o Un container d 20 ft al massimo può arrivare fino ai 240 kN - Le rampe di accesso per i container devono essere dimensionate per un peso di almeno 40 kN/m 2 - Le strutture utilizzate per lo stoccaggio della merce trasmettono un carico in funzione di quanto la merce è “impilata” una sopra l’altra, in generale ci si aggira fra 20 e 50 kN/ m 2 - Per evitare un sovraccarico della struttura è possibile indicare con cartelli o con scritte per terra il carico massimo permesso - Per avere un’idea un fork-lift truck trasmette al terreno un carico leggermente superiore a quello trasmesso da un Boeing747 al decollo - Se invece non abbiamo informazioni sui mobile cranes o sulle altre attrezzature che verranno impiegate nella banchina, si può utilizzare un carico di riferimento di 700 kN agente su un’area di 1 x 1 m.

-

Per via degli elevati carichi applicati, in questi terminali vengono realizzati i cosiddeti heavy duty pavement in modo da ridurre l’effetto di carichi concentrati o per aumentare l’area di ripartizione del carico. I carichi di riferimento sono: o Carico concentrato di 150 kN agente su un’area di 0.2 x 0.5 m o Carico uniformemente distribuito di 20 kN/m 2

Figura 130: Heavy duty pavement, sono realizzate utilizzando strati particolarmente resistenti nonché sufficientemente spessi in modo da distribuirlo il più possibile sul terreno sottostante all'opera (subgrade support)

-

In fig. 134 sono invece indicati i carichi tipici da considerare a seconda del tipo di merce movimentata sul terminale

Figura 131: carichi distriubiti (qualitativi a seconda del tipo di terminale con cui si ha a che fare)

Figura 132: possibili combinazioni di carico, i carichi concertati sono quelli trasmessi dalla gru, quelli distribuiti sono rappresentativi ad esempio di container appoggiati sul piazzale

Banchine a gravità: introduzione e tipologie Esattamente come per le dighe a parete verticale, le banchine a gravità resistono per attrito grazie al loro consistente peso, questo significa che le verifiche di stabilità riguardano: - Verifica a scorrimento - Verifica a ribaltamento - Verifica allo schiacciamento del terreno

-

Verifica di stabilità globale

Figura 133: Banchina a gravità a piloni di massi, si nota il carico dovuto al sovraccarico, alla spinta data dal rinterro (si noti la variazione di inclinazione del diagramma delle pressioni)

Per diminuire la spinta data dal terreno si realizza solitamente un rinfianco di pietrame: ricordiamo che in fase progettuale si vuole diminuire il coefficiente di spinta attiva K a , per farlo è necessario che l’angolo di attrito ϕ aumenti, per far aumentare ϕ bisogna adottare un materiale più grossolano che viene quindi posizionato a tergo della banchina al posto del terreno sciolto. In realtà questo tipo di opere sono ormai antiche, ma la cosa interessante è che, allo stesso modo delle dighe a parete verticale, la verifica allo slittamento va effettuata per ogni masso che costituisce l’opera; anche i criteri per la verifica all’imbasamento della banchina sono gli stessi che si adottano per le dighe a parete verticale (verifica a scorrimento). Un ruolo importante è giocato dall’imbasamento perché le banchine vanno ad appoggiarsi su un terreno con scarsa capacità portante in quanto saturo e non consolidato¸ la verifica della capacità portante del terreno è pertanto fondamentale per questo tipo di opere (verifica a schiacciamento) Per quanto riguarda le verifiche a ribaltamento e a scorrimento, esse vanno condotte riferendosi alla normativa vigente. In testa ai piloni di massi si nota la cosiddetta sovrastruttura, un elemento che regolarizza e solidarizza tutta la linea della banchina ed è tipico delle banchine in generale, solitamente viene realizzata in sito e ha sezione cava per permettere l’alloggiamento dei servizi quali tubature ad esempio. In questo tipo di opere è presente anche un elemento parabordo (fa parte dei cosiddetti arredi di banchina) in grado di assorbire gli urti trasmessi dalle navi, sembra un elemento apparentemente innocuo ma, a seconda delle navi che approderanno al terminal, delle merci che saranno movimentate e dei mezzi che verranno impiegati, sono adottati parabordi diversi. Un altro elemento fondamentale di questo tipo di banchine è il masso a seggiola, come si nota in figg.137 – 138 sx. il primo masso alla base della struttura è in aggetto rispetto a tutti gli altri, così facendo tutto ciò che si trova a filo dell’aggetto viene considerato come una porzione di banchina che contrasta la spinta del terreno e contribuisce all’equilibrio della banchina. Infatti, guardando più attentamente la fig.137, si nota che i carichi distribuiti sono applicati a partire dal filo dell’aggetto. Alle volte, nella parte terminale si impiegava una sottopiastra in c.a posta fra l’imbasamento e il masso a seggiola (fig.138 dx.) per distribuire meglio il carico. Uno dei problemi delle banchine costruite come quella in fig.137 è che la chiglia della nave può scontrare con il masso posto alla base dell’opera, per questo motivo l’imbasamento può essere realizzato sotto al fondale in modo da non ridurre il pescaggio del terminale (fig. 139 dx.)

Figura 134: effetto del masso a seggiola (sx.), masso a seggiola soprastante la sottopiastra in c.a (dx)

Anche per le banchine a gravità si hanno metodologie costruttive differenti, le due principali famiglie sono: - Banchine a gravità con fondazione superficiale, che si usano quando il terreno ha buone caratteristiche in superficie. Le cui metodologie costruttive sono: o Piloni di massi pieni, solitamente si impiegano quando non si ha la possibilità di realizzare cassoni o Piloni di massi cavi o speciali o Cassoni o Muri di calcestruzzo gettato in opera all’asciutto o Muri di calcestruzzo armato prefabbricati e portati in opera con pontoni di galleggiamento - Banchine a gravità con fondazione profonda, che si usano invece quando il terreno superficiale non è adatto il che costringe a ricercare strati migliori di terreno a profondità maggiori. Le cui metodologie costruttive sono: o Cassoni autoaffondanti o Cassoni costruiti con l’ausilio dell’aria compressa Queste ultime tipologie elencate sono ormai obsolete, ma vanno conosciute perché nella pratica professionale potrebbe capitare di dover intervenire sull’esistente.

Figura 135: banchine a gravità con fondazione superficiale. A cassoni (sx.), a muri (centro), a piloni di massi (dx.)

Banchine a gravità: osservazioni Noti i diversi pesi specifici e angoli di attrito è possibile tracciare il diagramma delle pressioni ed effettuare così la verifica a stabilità (fig.140).

Figura 136: i contributi 7-8-9-10-11 sono quelli del terreno dovuto all'aggetto del masso di seggiola (n.5), a destra invece si vede un imbasamento interrato

Il materiale di rinfianco può essere disposto sotto diverse configurazioni anche per una stessa opera, la disposizione ottimale dipende dagli angoli di rottura del materiale stesso e del terreno. La disposizione ottimale deve tenere anche conto della necessità di limitare l’utilizzo del pietrame di rinfianco per via del suo costo elevato.

Lezione 47: opere di accosto – banchine a gravità (III) Banchine a gravità: osservazioni ed esempi In tempi più antichi si realizzavano piloni di massi o con soluzioni tecniche miste con materiali gettati in loco (fig.141 sx.), sempre guardando al passato, nel caso di consolidamenti e rinforzi di strutture vecchie si utilizzavano pali di sottofondazione e palancole in modo da contenere eventuali effetti di erosione ed evitare lo scivolamento della struttura (fig. 141 dx.)

Figura 137: piloni di massi con tecniche miste (sx.), rinforzo di strutture esistenti (dx.)

Col passare del tempo le tecniche costruttive sono cambiate così come i materiali da costruzione, la prima soluzione ad essere pensata con l’impiego di calcestruzzo prevedeva di impilare dei massi pieni o vuoti, in quest’ultimo caso il riempimento veniva fatto con un riempimento granulare sciolto in modo da favorire l’equilibrio della struttura e solidarizzare i vari tratti della banchina. Tra un blocco e l’altro venivano inseriti dei blocchi buchi? per evitare il dilavamento del terreno a tergo della banchina e rendere quindi la banchina impermeabile (fig.142)

Figura 138

I massi poi potevano assumere diverse forme ed essere così diversamente riempiti come indicato in fig.143 che venivano impiegati quando non si era in grado di realizzare un blocco completo cavo.

Figura 139: diverse tipolgie di blocchi determinano diverse sezioni della banchina

Il passo in avanti fu comunque importante perché rendere cavi dei massi di pietra e poi controllare che avessero il peso richiesto era un’operazione piuttosto onerosa, con l’impego del calcestruzzo le procedure si sono semplificate e velocizzate notevolmente. Ancora, gli elementi impilati in cemento armato potevano avere sezione anulare ed essere solidarizzati tramite delle barre in metallo o dei pali come indicato in fig. 144

Figura 140: il carico del mezzo di movimentazione da un lato ha un effetto positivo perchè stabilizza la bancihna nei confronti delle spinte del terreno, dall'altro però posso dare dei problemi di schiacciamento locale nei blocchi.

I cassoni cellulari sono ormai ampiamente utilizzati, come abbiamo già detto, analogamente a quanto avviene per le dighe si realizzano degli “scatoloni” cavi che sono posizionati dapprima nella zona in cui va realizzata la banchina e poi sono riempiti di un materiale adeguato (solitamente materiale sciolto) per poi essere “tappati” da una pavimentazione e dal massiccio di coronamento della banchina.

Figura 141: esempio di cassone cellulare (sx) e micropali in zona sismica (dx.)

In zone sismiche può capitare che alla base del cassone vengano inseriti dei micropali di consolidamento per favorire la stabilizzazione della struttura (fig.145 dx). Se la banchina è particolarmente pesante si effettua solitamente una sostituzione del materiale di fondo come indicato in fig.146.

Figura 142: sostituzione del materiale di fondo

Uno schema estremamente interessante è quello della diga di Taranto, si notano nell’ordine: - Imbasamento che arriva a una quota molto più alta rispetto al fondale probabilmente perché il cassone non poteva tecnologicamente raggiungere una certa altezza - Cassone suddiviso in due celle: o Una è in comunicazione con il mare tramite delle aperture, questo viene fatto per realizzare una struttura che sia in grado di assorbire parte del moto ondoso residuo del bacino. o L’altra è invece riempita di materiale sciolto Questo tipo di cassoni sono chiamati assorbenti e sono utilizzabili sia nell’ambito di banchine che in quello delle dighe a parete verticale - Due binari (della gru), uno dei quali scarica sul cassone il quale a sua volta lo trasferisce all’imbasamento, l’altro scarica invece su una fondazione superficiale in modo da non far gravare il peso della gru sul terreno a tergo della banchina evitando così di creare un’eccessiva spinta su di esso.

Figura 143: diga del porto di Taranto

I cassoni assorbenti possono essere fatti in diversi modi, solitamente si realizzano delle camere cave che possono essere lasciate libere (con fori che permettono entrata/uscita dell’acqua) o riempite con massi che riproducono l’effetto dissipativo della mantellata delle dighe: l’onda arriva e dissipa la sua energia frangendo sulla massicciata. Per capire la dimensione delle celle richiesta bisogna ragionare sul coefficiente di riflessione, esso è una funzione della lunghezza d’onda incidente e della larghezza della cella (e per definizione è il rapporto fra l’altezza d’onda riflessa e quella incidente):

K r =f (B /Li )=H r /H i In termini progettuali il coefficiente K r deve essere il più piccolo possibile, quindi le celle sono dimensionate in funzione delle onde attese all’interno del bacino portuale

Figura 144: cassone con camere piene (sx.), camere dissipative vuote (dx.)

Per quanto riguarda i muri in c.a, essi possono essere gettati in opera oppure prefabbricati, solitamente siamo nel primo caso quando abbiamo la possibilità di lavorare all’asciutto (i.e l’installazione portuale non esiste ancora), in questo caso viene eretta una trincea e si effettua il getto. Nel secondo caso invece i prefabbricati sono adagiati sul fondale marino e sono utilizzati quando si lavora in acqua. Il principio, anche in questo caso, è sempre il medesimo: un muro che regge del terreno alle sue spalle, questo permette di “sbizzarrirsi” sul tipo di muro da utilizzare. All’interno dei muri prefabbricati possiamo infatti avare muri su una base ampia (fig.149 sx.) o muri più massicci che

rispondono alla spinta del terreno grazie al loro peso (fig.149 dx.), inoltre fra i muri a base ampia possiamo avere dei contrafforti in funzione della spinta che il muro deve sostenere (fig. 149)

Figura 145: muri prefabbricati a base ampia (sx) e muri massicci (dx.)

Figura 146: muri con più contrafforti

Per avere una produzione giornaliera significativa e soddisfacente è chiaro che serve una capacità di prefabbricazione adeguata sia in termini di expertise che di macchinari adeguati.

Figura 147: realizzazione di un muro gettato in opera, vista l’imponenza dell’opera è fondamentale la verifica a schiacciamento del terreno

Per quanto riguarda i muri gettati in opera (all’asciutto) si realizza una trincea a partire dal piano campagna originale al cui interno viene gettato il muro di sostegno, in seguito si riempie di pietrame a tergo del muro, si realizza il piazzale e si sbanca tutto il riempimento davanti alla struttura e si allaga così la trincea. Per quanto questa situazione

sia, da un punto di vista realizzativo, quella più semplice può essere fatta quando si realizza la banchina in un terreno preesistente.

Figura 148: altro esempio di muro gettato in opera

Sempre all’interno dei muri gettati all’asciutto è possibile realizzare dei blocchi monoliti in c.a che riproducono la forma della tipologia a blocchi impilati vista in precedenza.

Figura 149: blocco monolitico in c.a gettato all'asciutto

Questa scelta non è economicamente conveniente (per via del quantitativo di materiale impiegato) e perciò i blocchi monolitici non sono più utilizzati, è infatti più economico costruire dei cassoni cavi da riempire poi con un materiale di bassa qualità. Osservazione: - i muri di figg.148-149 non sono altro che delle opere di sostegno geotecniche utilizzate in ambito marittimo - anche in questo caso l’imbasamento può essere fatto al livello del fondale o sotto di esso per guadagnare pescaggio

Vi sono poi dei muri prefabbricati che sono ibridi fra un cassone e un muro in cls: sono cavi, possono essere trasportati per galleggiamento e successivamente riempiti ma hanno la forma del muro di contenimento e non del cassone.

Figura 150: Muro Dumez, tipologia ibrida

Banchine a gravità: fasi di lavorazione 1. Scelta del posto e consolidamento del fondale (vibro compattazione e impiego di materiale con caratteristiche meccaniche migliori rispetto al terreno originale) 2. Posizionamento del muro a. Per galleggiamento se al bagnato b. Con gru se all’asciutto 3. Riempimento a tergo 4. Realizzazione delle opere di finitura a. Realizzazione dell’elemento di coronamento b. Realizzazione della pavimentazione

Figura 151: vibrocompattazione e consolidamento (due diverse tecniche pali e vibrocompattazione)

Figura 152: posizionamento del muro e realizzazione delle finiture

Osservazione: consolidamento del terreno Il terreno del mare è saturo e non consolidato (i.e gli interstizi sono molto grossi e pieni d’acqua) quindi appena si applica un carico vi sono grandi deformazioni verticali perché gli interstizi si chiudono e l’acqua esce dai pori, in altre parole la mancanza di consolidamento ci dice che non si sono sviluppate delle forze di adesione tali da garantire una sufficiente capacità portante. Per ovviare a questo problema si effettua un consolidamento del terreno, ci sono diverse tecniche come la compattazione semplice, la vibrocompattazione, l’iniezione del cemento nei vuoiti (jet grouting) o la realizzazione di micropali in sabbia o pietre. Anche in questo caso le tecniche appena elencate derivano dall’ambito geotecnico e sono semplicemente trasposte in ambito marittimo. Banchine pesanti a gravita: cassoni autoaffondanti Questo tipo di cassoni non hanno fondo e sono caratterizzati da una sezione rastremata che genera una pressione significativa che ne permette l’affondamento progressivo, i cassoni autoaffondanti sono utilizzati quando si ha a che fare con terreni di scarse capacità portanti nei quali il cassone si ancora proprio perché sprofonda. In sostanza, è una specie di fondazione profonda che veniva utilizzata in passato i cui elementi erano costruiti in loco; come già sottolineato, le banchine moderne sono ben distanti da questo tipo di tipologie costruttive ma è giusto conoscerne le caratteristiche nell’ottica di non eccedere con eventuali interventi di adeguamento (se scavo troppo il cassone si ribalta) che devono essere fatti solo se si conosce il comportamento effettivo di queste opere. Solitamente i cassoni sono cavi e sono poi riempiti con altro materiale sciolto (tipo sabbia)

Figura 153: sezione di cassone autoaffondante (sx.), cassone autoaffondante con sezione circolare (dx.)

Banchine pesanti a gravità: cassoni ad aria compressa In questo caso abbiamo una zona sotto il cassone che viene messa in depressione così da poter lavorare all’asciutto, scavare e facilitare l’infissione nel terreno da parte del cassone. Questo tipo di tecnologia è in realtà di tipo storico (dell’800) ed è anche estremamente pericolosa, la camera 10 di fig.157 era a sigillata e al suo interno gli operai scavavano fino a che il cassone non raggiungeva la quota di progetto per poi riempire il cassone con calcestruzzo: all’epoca non si conosceva nulla in merito all’embolia e in merito ai rischi che si corrono se il corpo umano subisce forti sbalzi di pressione. Queste fondazioni potevano essere realizzate sia in acqua che all’asciutto (le fondazioni della Tour Eiffel sono state realizzate così fig.157 dx), nel primo caso la pressione era necessaria per evitare di avere filtrazione di acqua all’interno dalla zona di scavo.

Figura 154: banchine con camera in pressione (sx.) e fondazioni della Tour Eiffel (dx.)