Romano Camassi è sismologo dell’Ingv e storico dei terremoti. Il libro di cui si parla nell’intervista, scritto con Marco Massa, è Terremoti. Quando la terra trema (Il Mulino, 2013).

Nel nostro paese l’evoluzione normativa antisismica va di pari passo con i terremoti.
Sì, le normative inseguono i terremoti. Si parte con un primo accenno di normativa già oltre un secolo fa, dopo il terremoto dello Stretto del 1908, e poi a seguito di forti terremoti intorno agli anni Venti e Trenta, quando molti territori in Appennino centrale e settentrionale vengono classificati sismici; successivamente però ci sono le marce indietro, e diversi di quegli stessi comuni vengono declassificati perché la normativa è considerata un ostacolo allo sviluppo. L’ultimo grande provvedimento risale al 1974-’75, quando viene definita una simil-classificazione e una normativa tecnica. Dopo il 1980, con il terremoto dell’Irpinia, c’è una prima classificazione nazionale che riguarda meno della metà dei comuni italiani, mentre fino al 2002, con il terremoto di San Giuliano di Puglia, l’altra metà è del tutto priva di normativa. Nel 2003 un provvedimento classifica tutti gli 8.101 comuni italiani sulla base di valutazioni che in ­realtà erano disponibili da una decina d’anni; nel 2006 viene pubblicata definitivamente la mappa di pericolosità, che a quel punto diventa l’unico punto di riferimento. La classificazione, da quel momento in poi, ha solo funzioni amministrative, ma l’obbligatorietà dell’applicazione della normativa tecnica è solo del 2009.
A questo punto, si può pensare, dovremmo essere a posto: sulla carta le norme ci sono dappertutto, ma non per questo si recupera il pregresso. Qui ci sono veri e propri paradossi, che posso spiegare con un esempio riferito all’ultimo terremoto dell’Italia centrale. Il 24 agosto i tre comuni principalmente coinvolti sono stati Amatrice, Arquata del Tronto e Accumuli. Amatrice è stata classificata sismica dopo il terremoto di Avezzano del 1915, Accumuli nel 1927, Arquata del Tronto nel 1984. Ci si aspetterebbe che il comune soggetto a normativa da più tempo degli altri avesse una patrimonio edilizio molto migliore. Invece la situazione è esattamente rovesciata. Ma perché Amatrice, che è classificata dal 1915, non ha un patrimonio edilizio migliore di Arquata che lo è solo dal 1984?
Ciò che determina questo stato di cose non è solo la normativa ma condizioni economiche, vicende storiche, culturali e demografiche. Amatrice aveva una condizione storica particolarissima. Fino all’Unità era l’appendice più remota del regno di Napoli, con una forte povertà economica e sociale e dove le ricostruzioni post-terremoti del 1639-1703 furono molto fragili. Poi, un periodo molto lungo senza alcun terremoto realmente importante ha fatto sì che per tre secoli crescesse un patrimonio edilizio estremamente vulnerabile, basato su materiali e tecniche costruttive molto povere.
Se ci si sposta un po’ verso nordest, ad esempio, ci sono situazioni differenti: Acquasanta è la zona del travertino, dunque ha materiali costruttivi di qualità maggiore. Comunque, alla fine tutti e tre questi comuni hanno avuto la stessa sorte; sommandosi, gli eventi sismici degli ultimi mesi li hanno devastati più o meno allo stesso modo. Ciò non toglie che ci si sarebbe aspettata una risposta molto migliore della zona di Amatrice.
Insomma, la variabilità del patrimonio edilizio, dei suoi caratteri costruttivi, dipende da tantissimi fattori in gran parte economici o legati proprio alle caratteristiche dei diversi siti in cui viene costruito, dal materiale costruttivo disponibile, dalla storia sismica del luogo. Dove c’è sismicità relativamente frequente e abbastanza forte ci si aspetta che il patrimonio edilizio sia leggermente migliore; e però, ancora, ci sono zone dove condizioni economiche generali sono buone e ci aspetteremmo un patrimonio edilizio nettamente migliore; penso all’Italia settentrionale, al basso Piemonte, alla Lombardia, al Veneto, alla Lombardia occidentale, alla zona del Garda. E però, se pensiamo a un terremoto del novembre 2004, il terremoto di Salò, non particolarmente forte, di magnitudo 5.0, ha prodotto grossi danni in molti paesi. La realtà è che la qualità del patrimonio edilizio storico non recente è bassissima, sempre per ragioni di tipo strettamente storico.
Gli ultimi terremoti che tappa hanno segnato?
Credo che questo terremoto del 2016 riveli una crescita di consapevolezza sul problema generale. Questo non è una novità; l’attenzione, in termini di comunicazione e sensibilità delle persone, è più forte in occorrenza di eventi importanti, mentre tende a scomparire rapidamente in seguito. E questo a dispetto del fatto che l’Italia sia insieme alla Grecia il paese con la pericolosità sismica e vulcanica nettamente più alta rispetto al resto d’Europa. Indubbiamente c’è una percezione di pericolosità molto inferiore al rischio reale. Questa cosa l’abbiamo misurata attraverso indagini di tipo statistico, in particolare in alcune aree tendenzialmente più pericolose: l’Appennino centromeridionale, la Calabria e la Sicilia. La percezione tende a essere leggermente sovrastimata solo nelle aree prossime a quelle colpite di recente da terremoti. Per esempio, dopo il terremoto del 2012 in Emilia abbiamo riscontrato una percezione di pericolosità più forte nei capoluoghi di provincia rispetto alle aree in realtà più pericolose, quelle appenniniche o di pianura avanzata. Tra il 12 e il 22 dicembre scorsi abbiamo tenuto tra le Marche, l’Aquilano e il Reatino ventiquattro assemblee pubbliche rivolte agli insegnanti, che complessivamente hanno coinvolto 1.500 persone. Abbiamo notato per la prima volta una percezione migliorata. Le persone cominciano a ragionare in termini di vulnerabilità sismica, termine che prima era assolutamente estraneo al linguaggio, e si rendono conto del pericolo della povertà costruttiva degli edifici. Altro indizio positivo è che se in quattro-cinque di quegli incontri ci siamo trovati in assemblea complottisti veri e propri, questi sono stati completamente isolati dall’uditorio. Va considerato peraltro che eravamo in piena sequenza -e lo siamo tuttora-, quindi c’era molta tensione e temevamo che sarebbe stato tutto più complicato.
Ma era già andata bene anche in Emilia, dove a ridosso del terremoto del 2012 abbiamo fatto incontri in piazza, con un pubblico generico, quindi dove il rischio di polemiche era più alto. Forse in questi incontri aiuta il fatto che ci presentiamo in maniera informale e parliamo liberamente, senza un’aura cattedratica.
Sono sicuramente segnali positivi; il problema che non consente di essere tanto ottimisti è che i proclami per l’adeguamento del patrimonio edilizio italiano, in questa condizione economica e nell’assenza di prospettiva di medio-lungo termine, restano un miraggio assoluto. Quello che andrebbe fatto subito è predisporre un piano di riqualificazione del patrimonio edilizio esistente sull’ordine dei 20-30 anni con investimenti molto forti: dieci, venti miliardi di euro l’anno. Se non si fa una scelta di questo tipo adesso, il prossimo forte terremoto può creare una voragine da cento miliardi di euro. Significa mettere a rischio l’Europa; sarebbe molto più pesante del fallimento di una banca. La finanza pubblica non sarà più in grado di sostenere i costi sempre crescenti degli eventi naturali estremi.
Ultimamente si è tornati a parlare di coperture assicurative obbligatorie...
Se ne parla sempre, però è un tabù. Già dopo il ’97, con il terremoto di Umbria e Marche, si era provato a introdurre nelle finanziarie meccanismi di attivazione di copertura obbligatoria, ma questi sono sempre stati affossati con la giustificazione che si andasse a favorire le compagnie assicurative, in particolare quelle dell’ex premier Berlusconi.
In realtà è un problema ineludibile. È chiaro che è uno strumento che va studiato con molta attenzione, dev’esserci un’introduzione progressiva, con detrazioni e incentivazioni fiscali, però prima o poi dovrà essere affrontato, perché potrebbe incrementare la protezione sismica degli edifici. I costruttori sarebbero vincolati al rispetto delle norme, perché diversamente avrebbero premi assicurativi troppo elevati.
Si tenga conto che i terremoti recenti sono stati relativamente "piccoli” e sinora abbiamo avuto costi distribuiti nel tempo, però un terremoto di magnitudo maggiore di 6.5, molto più forte dei terremoti dell’Aquila e dell’Emilia, avrebbe un impatto economico molto maggiore. E negli ultimi quattrocento anni in Italia, di terremoti delle dimensioni di quello dell’Irpinia ce ne sono stati con una frequenza di uno ogni quindici anni.
A livello di risposta sociale ed economica ci diciamo sempre che noi italiani "abbiamo risorse inimmaginabili”, ed "esprimiamo il meglio in situazioni di emergenza”... È vero solo fino a un certo punto.
La sismologia non è ancora in grado di fare previsioni.
No, la sismicità non è uniforme nel tempo e nello spazio, però su singole strutture geologiche il ritardo nella generazione di forti terremoti tende a renderne più probabile l’occorrenza. Ci sono in gioco due fattori: da una parte il potenziale sismogenetico di una faglia o di un sistema di faglie, dall’altro la frequenza temporale della ricorrenza del più forte terremoto possibile.
Noi non siamo ancora in grado di definire né l’una né l’altra cosa in termini precisi. La stima del massimo potenziale sismogenetico su un determinato settore si basa sulle nostre conoscenze geologiche: conosciamo l’esistenza di un sistema di faglie e siamo in grado di fare stime delle dimensioni, quindi della massima magnitudo che quella struttura può generare. A questo affianchiamo l’osservazione di tipo storico, che è molto importante ma è pur sempre limitata a un migliaio di anni di osservazione, che in questo campo è poco. Se conoscessimo venti, trentamila anni di record storico... In qualche caso, ancora pochissimi al mondo, la nostra conoscenza arriva a tanto: su alcune faglie sono stati fatti scavi di trincee geologiche che ci hanno consentito di riconoscere forti terremoti avvenuti fino a dieci-ventimila anni fa. Per ciò che conosciamo ora, definire il tempo di ricorrenza caratteristico su una determinata struttura del suo massimo terremoto è praticamente impossibile.
L’Italia ha una buona rete di rilevazione?
Al momento siamo sull’ordine delle quattrocento stazioni, oltre a diverse decine di stazioni temporanee attivate quando, per ragioni di ricerca o perché c’è una sequenza in corso, si decide di migliorare il monitoraggio -come per esempio adesso in Italia centrale. Moltissime di queste sono stazioni multiparametriche, quindi hanno anche accelerometri, strumenti che misurano lo scuotimento orizzontale condizionato dalle caratteristiche geologiche del singolo sito, e reti gps per misurare la deformazione verticale permanente o quella determinata da singoli terremoti. È un’eccellente rete sismica, ma ci sono paesi, come il Giappone, che di stazioni multiparametriche ne hanno molte molte di più, e con le migliaia di stazioni accelerometriche, ad esempio, sono capaci di modellare lo scuotimento reale. Quello che noi siamo in grado di fare al momento sono mappe di pericolosità con valori di scuotimento teorici, attesi. È chiaro che per dare un significato di quel tipo servirebbero tante registrazioni e una densità di osservazione di quel livello, con molte migliaia di punti; così potremmo lavorare alla progettazione e all’adeguamento sismico degli edifici in maniera molto precisa.
C’è un altro fattore di complicazione: spesso si parla di sistemi di faglie, ma una singola faglia può rompersi su segmenti, determinando terremoti di dimensioni minori però più frequenti. È il caso dell’Emilia del 2012: il terremoto del 20 maggio è leggermente spostato a est, verso Ferrara, mentre quello del 29 maggio più verso Mirandola. Appartengono sicuramente allo stesso sistema di faglia, e in teoria avrebbero potuto rompersi in un colpo solo, generando un terremoto con una magnitudo superiore, perché non si sarebbero rotti due segmenti di 10-20 chilometri ciascuno, ma un unico segmento di 30-40 chilometri.
Nemmeno il terremoto dell’Irpinia, lo si è capito solo successivamente, si è verificato per una rottura istantanea: sono stati due-tre segmenti che si sono rotti a distanza di pochi secondi. Questo avviene in alcune situazioni anche in maniera molto asimmetrica, penso per esempio a Umbria e Marche del ’97. La sequenza era iniziata ai primi di settembre. Nelle prime ore del 26 settembre c’è stata una scossa di magnitudo 5.7, e la mattina dopo (quella ricordata per i danni ad Assisi) un’altra di magnitudo 6.0. Il 14 ottobre, nella zona di Sellano, molto più a sud, si è avuta un’altra scossa di magnitudo 5.6. Stesso sistema di faglie  che si sono rotte in tre momenti diversi. L’interrogativo che si pongono i geologi è: sarebbe stata possibile una rottura dell’intero sistema in un colpo solo? E che magnitudo avrebbe generato? Non lo sappiamo.
La storia sismica è l’insieme di dati che ci consente di fare elaborazioni che portano alla mappa di pericolosità. Ci aiutano l’indagine geologica su faglie riconoscibili, per stimarne le dimensioni, e la paleosismologia, che scava trincee per riconoscere dislocazioni, ma l’ingrediente principale delle stime di pericolosità viene dalla sismologia storica.
La mappa di pericolosità prende a parametro un valore di 475 anni di "tempo di ritorno”. Cosa significa?
Il termine temporale di 475 anni è un riferimento convenzionale fissato da una normativa europea, un tempo teorico per fare stime che corrisponde alla probabilità di superamento del 10% di probabilità ogni cinquant’anni, anche questo un tempo standard da normativa europea, che prende a parametro la durata teorica di un edificio costruito ex novo. Potremmo fare una mappa di pericolosità con tempi di ritorno anche a 1.000, 2.000, 5.000 anni; in effetti, nel nostro portale Ingv abbiamo una pagina (zonesismiche.mi.ingv.it) che consente proprio questo tipo di elaborazione. Chiaramente, più diminuiamo il tempo di ritorno convenzionale di riferimento, più i valori diminuiscono; più passa il tempo, più aumenta la probabilità che si verifichi uno scuotimento forte. Insomma, da quel che sappiamo dal punto di vista storico e geologico possiamo fare ipotesi di un tempo di ritorno del massimo terremoto atteso su una singola faglia, ma le incertezze sono molto forti.
Si consideri poi che la ricorrenza di terremoti di energia inferiore, ma che possono produrre danni, tende a essere molto più breve. Il terremoto aquilano del 2009, di magnitudo 6.3, ha come suo precedente storico diretto il terremoto del 1461, quindi andiamo già su una finestra di quasi seicento anni.
Si capisce quindi come la mappa di pericolosità sia difficilissima da comunicare. Un esempio è la distinzione tra pericolosità e rischio: nel linguaggio comune sono due termini usati quasi come sinonimi, mentre a livello scientifico sono concetti profondamente distinti. "Pericolosità” è la probabilità che in un determinato periodo di tempo si verifichi un evento, "rischio” è la probabilità che questo evento produca danni alle cose o alle persone. Si può avere pericolosità elevata e rischio bassissimo, e viceversa. Stessa cosa per quanto riguarda la previsione... Quando si usa un approccio probabilistico alla pericolosità sismica, le persone si aspettano qualcosa a carattere deterministico. Per esempio, i geologi che studiano le faglie (sismotettonica) ritengono che sulla stessa struttura che ha generato il terremoto dello Stretto di Messina del 1908 il periodo di ritorno sia sull’ordine dei 1.200-1.500 anni. Questo non significa che il prossimo terremoto su quella stessa struttura di magnitudo 7.1-7.2 come quello del 1908 avverrà tra 1.200 anni. E invece il pubblico tende a stabilire un nesso deterministico. Nella legenda della mappa di pericolosità ufficiale c’è scritto chiaramente che i valori di pericolosità attesi sono espressi con riferimento a un suolo rigido e piano; se il valore di scuotimento atteso è tra 0,150 e 0,175 g (percentuale di accelerazione di gravità), quel valore fa riferimento a un terreno rigido e piano. Per avere il valore atteso relativamente al singolo punto, bisogna moltiplicare per il fattore di amplificazione del suolo, che potrebbe non essere roccioso, cioè non rigido. Far capire questa cosa nella comunicazione al pubblico è di una complessità estrema!
Inoltre, la mappa viene pubblicata con alcune semplificazioni, come colori, numerazioni e aggettivazioni dovute al fatto che, essendo documento tecnico con una serie di allegati, non può essere riprodotta integralmente in un depliant informativo. E questo ha portato a molti fraintendimenti: dove la mappa rappresenta un valore di scuotimento atteso con una zona di colore azzurro, o verde, si tende ad associarlo a una situazione positiva. No! Quel colore indica un valore di scuotimento di non poco conto, in zone dove possono verificarsi terremoti con magnitudo superiore a 5: terremoti così, in Italia, hanno provocato devastazioni e morti, come a San Giuliano di Puglia nel 2002.
La mappa, oltre alla palette di colori, suddivide l’Italia in zone numerate 1, 2, 3 e 4. Anche la scelta di attribuire il valore più elevato alla zona rappresentata con il n. 1 invece che con il n. 4 è un problema: la persona comune pensa che la zona 4 sia necessariamente più "impegnativa” della zona 1.
Infine, uno degli equivoci più forti: in alcune elaborazioni iniziali pubblicate come riferimento ufficiale, le zone erano indicate con un’aggettivazione: 1, "a pericolosità elevata”; 2, "a pericolosità media”; 3, "a pericolosità bassa”; 4, "a pericolosità trascurabile”... Immaginerà cosa può pensare chi scopre di trovarsi in una zona a pericolosità "trascurabile”, che di "trascurabile” non ha nulla! Quando ci siamo accorti dell’equivoco l’errore è stato rettificato, ma se si fa una ricerca su Google immagini per "Mappa di pericolosità” si trovano ancora risultati che usano quell’aggettivazione, che non ha nessun fondamento.
Se è già difficile la divulgazione di temi tanto complessi, spesso poi vi trovate a farla parallelamente a un lavoro di mistificazione che spopola sul web...
La divulgazione al pubblico è questione delicatissima, servirebbe un lavoro di interazione ininterrotto e interlocutori che ci diano feedback per evitare equivoci come quelli descritti. Il problema è anche la mancanza di una base scientifica comune, di un sapere scientifico diffuso, anche solo di meccanismi di pensiero. In Italia c’è un ritardo molto forte. Negli Stati Uniti si è cominciato a lavorare sulla comunicazione già trenta, quarant’anni fa, e a livello internazionale ci sono esempi non necessariamente statunitensi o europei, penso al Cile, che hanno avuto un’attenzione forte. Da noi l’assenza di un lavoro comunicativo costante e avanzato in termini di approccio e strumenti ha fatto sì che si facesse strada qualcosa d’altro. Ormai c’è un vero e proprio "mercato” della comunicazione web, attraverso siti presunti giornalistici, o a carattere meteorologico, che fanno in maniera legale un’operazione scorretta: accedono al nostro sito e scaricano in tempo reale i dati, li rielaborano, li impacchettano e li rivendono, confezionando rubriche di pseudo-informazione che puntano molto sull’enfasi comunicativa di temi sensibili per attirare contatti e guadagnare con i banner pubblicitari. Chi fa queste operazioni non è contrastabile, la normativa non le impedisce.
Poi ci sono quelli che diffondo vere e proprie bufale, quelli che chiamiamo rumors, soprattutto durante situazioni di emergenza. Si è visto dopo l’Aquila, rispetto alla presunta capacità di previsione dei terremoti, dopo l’Emilia con le dicerie sulla supposta origine antropica dei terremoti -il cosiddetto fracking-, e riguardo a terremoti più recenti dell’Italia con le bufale sulle "vere” stime dell’energia del terremoto... L’elenco continua. Ora se ne mescolano diversi, fino ad arrivare alla presunta intensificazione dell’attività sismica a livello mondiale... C’è uno youtuber americano che si fa chiamare Dutchsinse, uno pseudoscienziato truffaldino che realizza video grossolani in cui correla forti terremoti in giro per il mondo con la sismicità in vari paesi, preannunciando eventi sismici distruttivi. Se c’è un forte sisma in Nuova Guinea, lui ne prevede uno "collegato” in Italia! Cose estremamente grossolane e malevole, che però in situazioni di forte tensione e di fragilità culturale, in un’area in cui è in corso una sequenza, in cui la comunicazione scientifica è carente, si diffondo in maniera virale.
Sulla questione dei "rumors” abbiamo attivato subito dopo il terremoto dell’Emilia una campagna di monitoraggio raccogliendo circa 250 segnalazioni. Forse la più incredibile mi è stata raccontata a metà settembre 2012 in un’assemblea con insegnanti a Crevalcore: qualcuno diceva che il parroco di Massa Finalese aveva predetto per il 22 settembre un terremoto catastrofico in paese. La stessa storia era emersa in testimonianze diverse. Quando ho riferito questa storia ai colleghi, uno di San Pietro in Casale mi ha raccontato: "Ah, l’ho sentito anch’io in paese, dal macellaio!”. Un altro collega, invece, l’aveva sentita attribuita al parroco di Finale Emilia... A quel punto, incuriosito, sono arrivato a ricostruirne l’origine, che era effettivamente Massa Finalese; ho contattato il parroco, che mi ha raccontato com’è andata: in una predica di metà agosto, lui aveva detto qualcosa del tipo: "Il momento più difficile sarà fra un mese, quando i vostri figli torneranno a scuola e noi al lavoro. Tutto tornerà alla normalità e nessuno si ricorderà più di noi. Quello sarà il vero terremoto!”. Talvolta questi rumors possono generarsi in maniera assolutamente casuale, non necessariamente malevola. Certo è positivo riscontrare che ai nostri incontri nelle zone colpite c’è una grande partecipazione, ma nel confronto diretto si riescono a raggiungere numeri bassissimi rispetto al web, e a un bisogno di informazione che è enorme. Abbiamo un sito che però è prevalentemente "frontale” e si rivolge alla comunità scientifica, il web 2.0 stiamo imparando da poco a utilizzarlo.
Abbiamo avuto molto successo a ridosso del terremoto dell’Emilia con il lancio del blog, che ora si affianca al sito ed è un canale di comunicazione abbastanza utilizzato. Anche la app Ingv terremoti ha avuto molto successo, ha una marea di utenti, e il profilo Twitter è molto seguito; questo è buono, perché sono strumenti che tendono a creare un rapporto di fiducia con chi mette in circolazione le cose. Però su questo bisognerebbe lavorare ancora. La cosa è tanto più interessante adesso che le persone comuni, tramite il web, possono contribuire alla crescita della ricerca scientifica: penso alla segnalazione degli effetti degli eventi sismici, al processo di comunicazione e sensibilizzazione cui possono dare un contributo determinante le persone che conoscono bene un ambiente.
Quali sono le prospettive future per la disciplina "sismologia”?
Gli studi geodetici sono estremamente promettenti. Studiando la terra da satellite, stiamo misurando i vettori di spostamento, cioè a indicare su una mappa di quanti millimetri l’anno si spostano le varie stazioni e in che direzione, scoprendo quale sia il livello di deformazione in atto. Anche in questo caso sarebbe molto importante avere una rete la più densa possibile, e però ci devono essere alcune condizioni geologiche per poter collocare una stazione: deve poter essere collocata su roccia, non dev’essere disturbata dal fattore antropico e dev’essere accessibile ma protetta perché gli strumenti vanno salvaguardati.
E serve tempo. In questo momento abbiamo dati di buon livello per una quindicina di anni; quando avremo trenta o quaranta anni di osservazioni cominceremo ad avere indicatori solidi che ci aiuteranno a capire valori di deformazione anomali, e se possono generare terremoti. Quei dati, integrati con la sismicità osservata dalla rete strumentale o con l’indagine storica, permetteranno di capire se un settore, in presenza di un processo omogeneo in tutte le aree circostanti, presenta invece una situazione di blocco che precede un rilascio di deformazione.
I dati della rete geodetica sono quelli più promettenti, che forse ci consentiranno prima o poi una previsione a medio termine, pur non ancora deterministica. Potrebbero, per intenderci, consentirci di affermare che nella prossima decade in una determinata area c’è una certa probabilità (ad es. del 25%) che si verifichi un terremoto di magnitudo superiore a 6.
Il lavoro che invece si sta facendo per le previsioni a breve termine non è basato sui dati geodetici, ma sulla combinazione di diversi potenziali indicatori di tipo geofisico, come le variazioni di microsismicità, vale a dire l’aumento in frequenza di piccoli terremoti concentrati in una certa area, le variazioni osservate nei fluidi (livello, temperatura e composizione chimica delle acque di pozzi e sorgenti) o le variazioni di emissioni di gas radon, ma quello è un tipo di ricerca che in questo momento non sta dando alcun esito.
C’è un aspetto pionieristico in questa disciplina che la rende affascinante.
Sì, anche per noi sismologi storici è affascinante cercare di comprendere se le sequenze sismiche storiche in una determinata zona hanno caratteristiche che potrebbero essere significative per comprendere le sequenze attuali. Questa cosa è ancora più interessante nello studio delle eruzioni vulcaniche, dove i fenomeni precursori sono molto più nitidi e rapidi. I miei colleghi storici e vulcanologi che lavorano da due-tre anni a tempo pieno sulla documentazione di eruzioni storiche dei Campi Flegrei hanno ristudiato tutta la documentazione sull’eruzione del 1538 andando a riconoscere una serie di indizi, nelle cronache coeve, che insieme ai geofisici hanno riconosciuto come fenomeni di degassamento e di sollevamento del suolo, tipicamente precursori di eruzioni. Riconoscere questo in un’eruzione del 1538 è di enorme importanza, perché si può arrivare a comprendere che, magari, nello "stile” di questo vulcano c’è un tempo di 48 o 72 ore di fenomeni precursori che precedono l’ultima eruzione esplosiva. È importante, è una scoperta. Quando ho visto questi colleghi esclamare: "Ah, allora questa descrizione significa questo”, erano eccitatissimi. Per i terremoti è tutto più complicato. Però studiare, per esempio, come è avvenuto nel nostro gruppo, zone storiche che si ritenevano sismicamente non attive e trovare terremoti importanti per niente conosciuti fino all’altroieri, beh, dà una grande gratificazione.
(a cura di Stefano Ignone)