Scarica il testo in pdf: Scarabocchi sul problema climatico

Questo testo era nato come una serie di tre scritti sottoposti all’attenzione di un gruppo di persone per invitarle a riflettere sul problema climatico, che negli ultimi tempi è divenuto fonte di accesi dibattiti, di uso strumentale e di grandi paure. Gli amici che gestiscono un paio di siti mi hanno chiesto di riscriverlo in forma unitaria, e nel farlo, mantenendo i contenuti, ho approfittato dell’occasione per migliorare la forma e per aggiungere due o tre cosette. Come preciso più avanti, non sono un esperto scientifico di un tema che (appropriandomi di una battuta non mia) è troppo importante per essere lasciato in mano agli esperti, che sono degli specialisti che sanno ogni giorno di più su una fetta sempre più piccola di un problema, finendo per sapere tutto… sul nulla.

Rinunciando all’ironia, è un dato di fatto che gli esperti e i politici che in combutta stanno affannandosi a cercare soluzioni tecniche disparate al problema, che esiste ed è grave, lo fanno partendo da premesse sbagliate. A monte il problema è culturale. Essi guardano il pianeta Terra come una macchina, composta di tanti meccanismi che si possono studiare e manipolare separatamente, dimenticando l’<interconnessione> dei vari pezzi, come ci ammonisce, nell’ultima appendice allo scritto, uno studioso atipico, Charles Eisenstein, laureato in matematica ma anche in filosofia, con una formazione “olistica”.

Gli esperti hanno inoltre fatto del clima un problema globalmente omogeneo, cosa che non è, e lo hanno affrontato con un unico parametro riduttivistico ed astratto, la temperatura, anzi, una differenza di temperatura nel tempo, il cui valore viene calcolato facendo la media di una serie di misurazioni locali, compiendo anche qui qualche “svista”, come dirò. Ma come appare sempre più evidente, l’atmosfera non è omogenea nella sua configurazione e non ha lo stesso comportamento ovunque, ad esempio nell’emi­sfero Nord e nell’emisfero Sud.

Essa risente della velocità di spostamento della Terra lungo la propria orbita (107.280 km all’ora) e della sua velocità di rotazione. Essa è trattenuta dalla terra grazie alla forza di gravità, ma non è rigida come un solido, bensì deformabile come un fluido. Ed al suo interno sono presenti fiumi gassosi simili a fiumi liquidi, il cui percorso è legato a questi movimenti ma anche ad altri fenomeni, elettrici e magnetici, i cui effetti <interconnessi> sono ancora in buona parte poco noti, come cercherò di segnalare. Questo è ciò che ci racconta una scienza autenticamente “scientifica” che riconosce i suoi limiti. C’è però un’altra scienza, che risponde a interessi di altra natura e li coltiva. È quello che cercherò di esaminare, basandomi sulla prima.

Ecco dunque i tre scarabocchi di cui ho parlato.

 1 – CAMBIAMENTO CLIMATICO

In questi giorni estivi stiamo assistendo ad una ulteriore drammatizzazione nei media del problema del cambiamento climatico (riscaldamento per la precisione) ed alla scomposta esasperazione contro i cosiddetti “negazionisti”, denunciati addirittura di essere “criminali contro il genere umano”, segno di un malessere sociale profondo e di paura indotta. Poiché, secondo la motivazione corrente, sarei uno di questi, chiedo la parola e dichiaro di pensare che il riscaldamento climatico c’è, però non credo che la sua causa sia quella che l’IPCC (Intergovernmental Panel on Climate Change – Gruppo Intergovernativo sul Cambiamento Climatico) indica, e cioè l’aumento nell’atmosfera dei “gas serra” e in particolare dell’anidride carbonica (CO2), principale gas imputato.[i]

Ma cosa si intende per cambiamento climatico e, più precisamente, per riscaldamento climatico? Lo preciserò meglio fra poco dicendo anche come si misura, perché, sottolineo da subito, esso non deve essere confuso con le continue variazioni meteorologiche del “tempo” (“Che tempo fa oggi?”), che possono comportare variazioni di temperatura anche di alcuni gradi centigradi, mentre il cambiamento climatico, di cui si sta parlando in sede scientifica, ad oggi è di circa 1°C (in aumento), in circa 100 anni.

È un caso tipico di fraintendimento fra linguaggio scientifico e linguaggio comune, fonte talora di grandi fraintendimenti sui quali si può speculare, come mi pare stia avvenendo. Se questa distinzione fra le due cose non è chiara, il dibattito in corso è viziato in partenza e diventa un dialogo fra sordi. Cosa che forse da alcuni è voluta.

Il clima è un fenomeno complesso che dipende da molti fattori fisici, chimici e biologici che nel complesso sono ancora poco conosciuti o sostanzialmente sconosciuti nei loro meccanismi quali ad esempio le dinamiche delle nuvole, del ciclo delle acque e del ciclo del carbonio. Anche sul significato della parola clima sarò più preciso cammin facendo, cercando di introdurre in modo semplice e comprensibile al problema climatico i lettori comuni, quelli ai quali mi rivolgo perché è su di loro che si sta giocando il gioco sporco della paura.

Prima di proseguire, come prima cosa mi qualifico: non sono un climatologo né un laureato in scienze della terra; sono semplicemente un ingegnere chimico di 87 anni che negli anni centrali della sua vita, fra i quaranta e i sessantacinque, ha vissuto un’esperienza donchisciottesca lottando contro la credenza, che allora si diffuse nel settore della produzione farmaceutica in cui operava, in una tecnologia “meravigliao” (i meno giovani ricorderanno forse lo spettacolo televisivo di successo avente per titolo cacao meravigliao condotto da Renzo Arbore e Claudio Mattone verso la fine della prima decade di questo secolo), la cui “imminente” messa a punto, continuamente annunciata e regolarmente posticipata, avrebbe risolto un grave problema di sicurezza da contaminazione del personale di produzione, del vicinato (come si scoprì successivamente) e infine (con tempi più lunghi) dell’ambiente circostante agli stabilimenti farmaceutici di produzione, a causa di allora nuovi medicinali fortemente “attivi” quali gli antibiotici, gli ormoni et similia.

Questa tecnologia d‘avanguardia, che avrebbe risolto detto problema riducendo al contempo addirittura i tempi di produzione (quindi consentendo ulteriori utili ad una attività che, assieme a quella delle armi, già era (ed è) la più redditizia, aveva sedotto l’immaginazione di una intera categoria di dirigenti di stabilimento laureati in discipline scientifiche -ingegneri, chimici, biologi o farmacisti che fossero.[ii] Intanto gli operatori si ammalavano gravemente, il vicinato iniziava visibilmente a soffrire e l’ambiente pure.

Una decina d’anni furono necessari per prendere atto, in fasi successive, di questi effetti nocivi e, una volta apparsa l’idea meravigliao, almeno altrettanti per disincantarsene.

Alla fine la rivista “bibbia” della Società Internazionale di Ingegneria Farmaceutica (ISPE)[iii], sostenitrice della nuova tecnologia che restò sulla carta, pubblicò un articolo in cui si leggeva che una “promettente” tecnologia era stata affossata dalla propaganda “terroristica” di un ingegnere italiano, non meglio identificato, dimenticando di dire che questi finalmente aveva potuto applicare le sue idee in un noto stabilimento situato nel pieno centro abitato di Firenze, e che esse avevano funzionato, senza alcuna soluzione meravigliao, i cui sostenitori si erano dimenticati che i diavoletti maligni si nascondono nei dettagli (ma a loro disdoro non si era trattato in verità di un dettaglio ma di un abbaglio scientifico). Era bastato usare tecnologie già note in altri settori della chimica, applicate in modo innovativo allungando non drammaticamente i tempi di produzione.

Amici mi hanno suggerito più volte di raccontare per esteso la vicenda, assai più complessa di questa ridotta narrazione, che apre uno squarcio significativo sul mondo delle tecno-scienze, il quale, mi si perdoni il riferimento che sembrerà irriverente, era stato ben descritto in una lettera ‘dimenticata’ di Einstein (Albert, non un omonimo), indirizzata ai membri della Società Italiana per il Progresso delle Scienze riuniti nel 1950 proprio a Lucca, la mia città. In essa il grande scienziato denunciava la morte della scienza, vittima di uno scippo da parte della tecno-scienza (per gli interessati è leggibile qui: Leggi il testo. Non l’ho mai fatto e ne parlo oggi per la prima volta in un documento pubblico perché siamo in tempi di idolatria della scienza, confusa come detto con la tecno-scienza.

L’ho fatto perché io so, per esperienza diretta e bruciante, che un intero mondo scientifico può venire condizionato mentalmente e so come è possibile farlo, usando varie strategie, incluso l’odor di denaro, ma non solo. Fenomeni di mimesis, buona fede ignorante, amor di carriera e timore di comprometterla, uso ripetitivo di una bugia che si trasforma in verità come già aveva scoperto il gerarca Goebbels. E il culto del mito: “lo ha detto la Scienza”. Ed ora assisto, quasi incredulo, che una fetta consistente di questo mondo, in combutta con il mondo politico dominante, sta usando le stesse tecniche per condizionare una larga fetta dell’opinione pubblica.

Mi sono immerso nel tentativo di comprensione del “problema climatico” perché ho avuto la sensazione di una analogia, certo in dimensioni enormemente superiori, con la mia esperienza di allora, e data la sua importanza, ho pensato di “comunizzare” le conclusioni cui sono giunto, e alle quali altri e più qualificati sono giunti prima di me, ben inteso. Ma poiché il messaggio di questi stenta a passare la barriera del silenzio, unisco la mia voce anche se essa può raggiungere solo un ambito limitato.

Vengo al tema e pongo una domanda preliminare: quello in corso sul “cambiamento climatico” è un dibattito scientifico o è contaminato dalla politica e dall’ideologia? Temo che esso sia giunto al punto di essere ormai più politico che scientifico, e con una buona dose di ideologia incorporata. Quando si squalificano le persone che la pensano diversamente dalla propria tesi definendole “terrapiattiste” o “criminali nemici dell’umanità”, arrivando perfino a proporre leggi che vietino loro il diritto di parola, credo che la scienza e il buon senso siano stati gettati nel bidone dell’immondizia e che il fanatismo ideologico, o altro tipo di interesse, stia trionfando.

Il riscaldamento climatico è una realtà

Non sono un terrapiattista né, come già detto, un “negazionista”, e affermo: il riscaldamento climatico è reale. Vediamo ora di quale riscaldamento si sta in realtà parlando a livello scientifico. Ripeto per precauzione quanto già detto: esso è altra cosa rispetto a quella sottesa nelle discussioni fatte al bar o al mercato (“Mamma mia! Senti che afa oggi!”), che si riferisce invece alle condizioni meteorologiche, una realtà diversa.

Il cambiamento climatico di cui si parla a livello scientifico consiste nella differenza di temperatura media globale del pianeta Terra fra due periodi di tempo distinti. Questa differenza viene calcolata in base a due valori calcolati ciascuno in periodi di tempo abbastanza lunghi, in genere 30 anni, e diversi. Nel caso specifico di cui si sta parlando, tale differenza è quella fra il valore medio della temperatura del pianeta nel periodo 2011-2020 e quello nel periodo 1850-1900. Questo aumento è stato valutato essere di 1,09 gradi centigradi (°C), come riportato nel Rapporto del 2021 dell’IPCC (Assessment Report 6 del 2021 – AR6).

La scelta di questi due periodi è stata fatta in base all’ipotesi, adottata dall’IPCC, che la causa della crescita della temperatura sia l’attività industriale, quindi antropica- che certamente è stata intensa negli anni 2011-2020 e che nel periodo 1850-1900 invece era appena agli inizi, almeno in gran parte del mondo. Sottolineo di nuovo, a scanso di equivoci, che l’aumento di 1,09°C non è un aumento annuo ma è quello avvenuto in un periodo di oltre cento anni, per cui qualcuno ha fatto notare che più che di “cambiamento” sarebbe opportuno parlare di “variazione” climatica, ma la parola cambiamento fa più effetto e ormai è invalsa, forse non innocentemente, nel linguaggio corrente come in quello scientifico. Il linguaggio è l’espressione di un pensiero e questo a sua volta si rafforza con il linguaggio impiegato: un effetto sinergico. Il rapporto dell’IPCC dice di più: in esso si afferma che l’aumento di ben 1,07°C è di origine antropica e solo quello di 0,02°C è di origine naturale.

Su questo valore totale c’è più o meno un accordo generale. E su questo, come suol dirsi, non ci piove. Come vedremo si può discutere se il valore reale è 1,09 o piuttosto circa 0,7 ma non è questo il problema essenziale. Sul fatto che il riscaldamento di fondo c’è, l’accordo sembra generale.

Quali sono le cause? Su questo punto invece non solo piove, diluvia!

Le possibili cause del riscaldamento climatico

Quelle ipotizzate mi sembra siano almeno 6:

–           L’aumento dei “gas serra” presenti nell’atmosfera terrestre, generati dall’azione dell’uomo e da altri esseri viventi. Per questo la causa è definita “antropica”. Questa è l’ipotesi oggi dominante, sostenuta dall’IPCC. Partendo dall’assunzione di alcuni fattori che determinano il clima, sono stati costruiti dei “modelli climatici” che servono a fornire previsioni future. I ‘modelli climatici’ sono modelli fisico-matematici mediante i quali si cerca di simulare, con l’aiuto di un elaboratore elettronico, il comportamento e quindi l’evoluzione futura dell’intero sistema climatico. Esso è composto da tanti sottosistemi corrispondenti ai singoli fattori del clima, ciascuno dei quali ha un proprio modello e le cui interazioni vengono simulate mediante scambi di energia. Per una migliore comprensione vedi l’Appendice n. 2 alla fine dello scritto.

–           La storia del pianeta Terra dice che nei suoi circa 4,5 miliardi di anni di vita ci sono stati periodi caldi e periodi freddi, addirittura “glaciali”. Essi sarebbero stati causati da fenomeni astronomici e astrofisici, in parte noti e in parte no. Fra i primi ad es. la variazione ciclica nel tempo dell’inclinazione dell’asse di rotazione della terra rispetto al piano della sua orbita attorno al sole, che fa variare l’incidenza dei raggi; fra i secondi la variazione dell’intensità dell’irraggiamento solare. Fra i sostenitori di questa causa, definita naturale, un agguerrito numero fa capo alla fondazione indipendente Clintel (Climate Intelligence Foundation). La loro modellazione si basa su dati storici statistici e su una serie di osservazioni reali, ma necessita di ulteriori riscontri basati su come evolveranno le cose.

  • C’è chi ipotizza che una delle cause vada ricercata negli effetti provocati dalle oltre 2.000 bombe atomiche sperimentali esplose fra il 1945 e il 1963 sulla terra, nel sottosuolo ma in gran numero proprio nell’atmosfera, e in particolare nella fascia più critica per il clima, la troposfera[iv]. Credo si potrebbero oggi aggiungere le centinaia di razzi spaziali lanciati, gli altrettanto numerosi satelliti artificiali ruotanti nella stratosfera lanciati da altrettanti razzi vettori, le centinaia di migliaia di bombe esplose nel corso delle continue guerre, in particolare oggi nella guerra in corso in Ucraina e, per fare il “buon peso”, il diluvio delle radiazioni elettromagnetiche (3G, 4G, 5G, ormai anche 6G e, annunciato, 7G). Queste cause, se vere, sarebbero senz’altro di origine antropica.
  • C’è chi chiama in causa gli esperimenti in corso per imparare a manipolare il tempo per utilizzarlo come nuovo tipo di arma di guerra. Guerra di altro genere, ma non meno mortale se ad esempio si possono affamare intere popolazioni con siccità causate artificialmente, o fare cose anche ben peggiori. La causa sarebbe di nuovo antropica.
  • C’è poi chi chiama in causa i vari esperimenti di geo-ingegneria in corso, volti a modificare il clima con scopi non militari. Il confine fra queste cause e le precedenti non mi sembra netto. Di nuovo comunque una causa antropica.
  • C‘è infine chi addossa la responsabilità al dissesto ambientale. Come dirò, c’è una connessione fra i due problemi, ma penso che nello studio essi vadano esaminati separatamente. Ne parlerò quindi più ampiamente in seguito.

Poiché ciascuna di queste cause è sostenuta con argomenti scientifici, un vero dibattito scientifico dovrebbe prenderle tutte in considerazione e analizzarle, senza esclusioni aprioristiche. In realtà la discussione oggi in corso verte prevalentemente sulle prime due, e in questo prima parte dello scritto mi riferisco ad esse.

Data l’importanza attribuita alla prima delle cause elencate è bene definire bene le funzioni svolte dall’IPCC, che la sostiene a spada tratta. Precisiamo dunque cosa è questo Gruppo Intergovernativo:

È un organismo della Nazioni Unite responsabile dell’avanzamento delle conoscenze sui cambiamenti climatici indotti dall’uomo (ma non di quelli prodotti dalla “natura”, il cui studio non rientra fra i suoi compiti). Esso è tenuto a presentare ogni 5 anni ai governi dei paesi facenti parte delle Nazioni Unite un rapporto (Assessment) relativo all’avanzamento delle conoscenze sul problema climatico. Nella opinione corrente viene comunemente considerato come “voce della scienza”, ma non è così. È invece un organismo politico, il cui ruolo è quello di «valutare su una base globale, obiettiva, aperta, trasparente, le informazioni scientifiche, tecniche e socio-economiche rilevanti per comprendere i rischi dei cambiamenti climatici indotti dall’uomo, i potenziali impatti e le opzioni di adattamento e mitigazione». L’IPCC quindi “filtra” con una prospettiva politica le analisi propriamente scientifiche.  L’IPCC opera in parallelo con un secondo organismo, sempre delle Nazioni Unite, l’UNFCCC (United Nations Framework Convention on Climate Change).

La causa antropica sostenuta dall’IPCC

Sinteticamente la causa si può riassumere così: la combustione di combustibili fossili quali carbone, idrocarburi liquidi e metano (CH4) produce dei gas serra, principalmente CO2, i quali sono la causa del riscaldamento ambientale. Dal punto di vista scientifico, a sostegno di questa affermazione viene riportato un grafico contenuto nel citato Assessment Report 6 (Fig.1).

Esso è tracciato sulla base di valori calcolati con un modello matematico[v] elaborato a partire dall’ipotesi che a influenzare il cambiamento climatico siano soprattutto i gas serra, la CO2 in particolare.

FIG. 1 (© IPCC AR6 WG I SPM)

Variazione della temperatura superficiale globale (media annuale) osservata e simulata utilizzando fattori umani e naturali e solo fattori naturali (entrambi 1850-2020)

 

 

Nella figura, sulle ascisse sono indicati gli anni fra il 1850 e il 2020 e sulle ordinate le variazioni della temperatura globale media annua osservata o calcolata, a seconda di quale delle linee colorate si osserva. La linea in nero, orizzontale nella prima parte, si impenna verso l’alto, a partire dal 1960. Essa corrisponde alle temperature osservate nell’intero periodo degli ultimi 170 anni. La linea di colore marrone corrisponde ai valori calcolati con il detto modello avendovi inseriti sia i forzanti (fattori influenzanti) naturali che quelli umani. Essa segue con ottima approssimazione la precedente e sembra quindi confermare la validità del modello. La terza, ottenuta inserendo invece nei calcoli i soli forzanti naturali già detti (sole e vulcani) ed escludendo i fattori antropici, si mantiene orizzontale per tutto il periodo considerato e quindi si discosta dai dati reali. Ciò confermerebbe che i fattori naturali non hanno alcuna influenza sull’aumento della temperatura media annua. Ma come già ricordato, il diavolo spesso si nasconde nei dettagli.

La seconda ipotesi: le cause naturali dell’aumento di temperatura

La storia del nostro pianeta ci dice che nel corso dei suoi circa 4,5 miliardi di anni di esistenza ci sono stati periodi anche prolungati di raffreddamento dell’atmosfera (glaciazioni, le più forti delle quali sembrano avere una ciclicità di circa 100.000 anni -almeno negli ultimi 400.000- ma su questa e altre ciclicità tornerò in seguito) alternati ad un periodo di riscaldamento, con oscillazioni della temperatura contenute in un campo massimo compreso fra -10 e + 10 gradi centigradi rispetto ad un valore zero assunto come riferimento.

Nella Fig. 2 è riportato l’andamento della temperatura negli ultimi 10.000 anni. Essa non è stata costruita mediante calcoli di un modello matematico ma su dati empirici, cioè su “fatti”. Essa prende in considerazione tutti i fattori che si presume influenzino il clima, ma ammette che la dinamica degli effetti di alcuni di questi sia poco nota, come ad es. il comportamento delle nuvole e il ciclo delle acque che, come detto, sono due grandi incognite dei meccanismi climatici. Per la totalità dei fattori presi in esame essa è stata definita olistica, mentre la precedente, avendo preso in esame un numero di fattori assai ridotto, è stata definita riduzionistica.

FIG. 2

Sull’asse delle ascisse ci sono gli anni espressi in migliaia, riportati all’inverso da destra verso sinistra. Lo 0 corrisponde all’oggi e andando indietro ci sono gli anni precedenti. Sull’asse delle ordinate ci sono questa volta le temperature medie reali. La linea corrispondente a 15°C viene assunta come riferimento per valutare le differenze rispetto a tale valore. Questa volta i valori del grafico sono quindi costituiti da dati, misurati o stimati su basi scientifiche e non derivanti da calcoli eseguiti con un modello matematico, sulla cui attendibilità tornerò in seguito. Qui mi limito a osservare che. esclusi i valori precedenti ai 10.000 anni or sono quando ebbe termine una grande glaciazione evidenziata nella figura all’estrema sinistra in basso, tutti i valori sono contenuti entro una gamma fra 14 e 16°C. I 16°C sono superati di poco e solo per un breve tratto in corrispondenza del periodo definito “olocene ottimale”. Quindi, osservano i suoi elaboratori, una differenza di temperatura di 1,09°C rientra in questo campo di oscillazione, pur essendo talvolta al limite.

Naturalmente sui grafici delle due figure ci sono molte considerazioni da fare, come ad es. sui punti a favore ed a sfavore delle due teorie, ma in questo approccio voglio restare nella facile comprensibilità di fatti e concetti base sui quali effettuare successivamente un approfondimento, che comunque manterrò nella piena comprensibilità delle persone comuni, quelle che oggi si tenta di impaurire con la minaccia di un armageddon climatico.

Certo, si può obiettare che, se è vero che l’aumento di temperatura degli ultimi 150 anni per ora resta dentro limiti che erano usuali in passato, esso però è in aumento ed è al limite di questi valori, e se continuasse a crescere a causa dell’aumento dei gas serra, che costituiscono un fatto nuovo rispetto al passato, il problema può diventare grave. Per questo l’IPCC ha posto come limite di guardia da non superare gli 1,5-2°C per la fine di questo secolo ed ha imposto un aumento pari a 0 a partire dal 2050. (Net zero: emissioni nette pari a zero).

La diatriba climatica oggi in corso

La polemica fra olistici e riduzionisti è forte perché la questione sul tappeto è se e come uscire dall’attuale modello economico produttore di CO2, la bestia nera, a conferma del retroterra squisitamente economico-politico.

Prima di andare oltre faccio due osservazioni:

* Ricordo che negli anni ’70 dello scorso secolo fra gli scienziati si discuteva con preoccupazione del raffreddamento climatico e non del riscaldamento e ci si chiedeva se non fosse in arrivo una nuova glaciazione. “The big freeze”, “Il grande gelo”, si leggeva sulla copertina della rivista Time del 31 gennaio 1977. Ma l’ipotesi uscì di scena in punta di piedi. “Climate is every thing” – “Tutto è clima” recita enigmaticamente una copertina della stessa rivista nel 2021. Eppure in quegli anni eravamo in piena emissione di gas serra.

* Un fatto nuovo, che ho appreso solo nelle ultime settimane, forse già noto ma non a chi scrive, è la notizia che alla prossima COP, l’annuale Conferenza delle Parti che avrà luogo in dicembre a Dubai, la Russia presenterà un documento della Accademia Russa delle Scienze in cui si sosterrebbe che le cause sono prevalentemente di origine astronomica e astrofisica, ma non del tipo sopra ricordato. Ne parlerò di nuovo fra poco avendo nel frattempo saputo qualcosa in più. Questo potrebbe cambiare il rapporto delle forze in campo nella discussione e comunque assestare un duro colpo alla teoria ufficiale. Fra poco più di due mesi vedremo. È facile prevedere che all’interno dell’IPCC che, ripeto, è un organismo politico, si aprirà un nuovo capitolo della guerra fredda, questa volta in nome della scienza.

Ho scritto questa parte delle note intorno al 30 luglio, mentre nel mio giardino soffiava un venticello piacevole, e questo da una settimana, e nei giorni precedenti, all’ora di cena, un paio di volte ho dovuto addirittura mettere una maglia. Questo nell’estate “più calda di sempre”, come strillano i media. Non ne traggo conclusioni “climatiche”, perché queste di breve periodo sono solo variazioni meteorologiche.

2 – CAMBIAMENTO CLIMATICO E SCIENZA

Una breve premessa. Dal 27 luglio, quando scrivevo la prima parte. nel giro di una settimana sul cambiamento climatico ci sono state due importanti dichiarazioni fra loro contrastanti fatte da due importanti personaggi, entrambi dello schieramento “confermativista” pro-CO2 (espressione che creo per praticità in contrapposizione al cosiddetto fronte “negazionista” che, ricordo, non è costituito dai negatori della realtà del riscaldamento bensì da coloro che negano le cause sostenute dai “confermativisti” dell’IPCC).

Il 27 luglio il segretario delle Nazioni Unite António Guterres ha dichiarato che siamo arrivati alla “ebollizione totale”, espressione tanto catastrofica quanto … vaga (a Lucca si usa altra parola), dimostrando di non sapere bene (o fingendo di non sapere) che il riscaldamento denunciato da una “sua” organizzazione parla di 1°C! Ad essa due giorni dopo è seguita, forse come contrappeso, una dichiarazione di Jim Skea, fresco di nomina alla presidenza dell’IPCC, il quale -pur avendo un passato di acceso “confermativista”- ha dichiarato che l’attuale allarmismo sul clima è “eccessivo”, pur confermandone la serietà.

Qui mi pongo una domanda: al di sopra di quale entità della sua presenza in atmosfera questa CO2, prima innocua, diviene così terribile per il clima? Si tratta di un gas fisicamente incolore, insapore, inodore, benefico per le piante, che viene assorbito dalle foglie e contribuisce al processo della fotosintesi clorofilliana che genera ossigeno. È un gas non nocivo per gli esseri viventi, a meno di non essere presente in quantità anomale.

La sua presenza nell’atmosfera terrestre si può misurare in parti per milione (ppm). In discussione c’è, ricordo, la differenza tra la sua quantità prima dell’inizio del riscaldamento climatico e quella attuale, perché prima la sua presenza era ininfluente sull’aumento della temperatura mentre ora, per il suo aumento, sarebbe invece nociva e in maniera forte, con un andamento addirittura “esponenziale”.

Prima dell’industrializzazione, la CO2 era intorno alle 277 ppm (anno 1759) mentre oggi è intorno alle 415 ppm (anno 2021): una differenza quindi dell’ordine di grandezza di 150 ppm. Che cosa ha fatto scattare il suo effetto sul clima?

Arrotondiamo i numeri per comodità: 400 ppm oggi, 300 ppm prima. Tradotto in numero di molecole, ciò significa 4 molecole di CO2 ogni 10.000 molecole degli altri gas, azoto e ossigeno in particolare, presenti nell’atmosfera. Mi è difficile pensare che 100 ppm di differenza causino un tale problema. La cosa è risultata curiosa anche ad uno scienziato italiano noto fautore delle cause naturali, Franco Battaglia, che argutamente l’ha tradotta nella storiella che segue:[vi]

Se il tinello di casa nostra è un locale di 100 m3 (cioè, 100.000 litri, preciso io, ad es. un locale di 5 per 5 mt e alto 4), 100 ppm di essi sono 10 lt di CO2. Il fatto è che 10 litri di CO2 sono circa 5 grammi di carbonio, che è il carbonio contenuto in una candelina da torta di compleanno. Cosicché bruciando una tale candelina nel tinello di casa, vi aumenteremmo la concentrazione di CO2 della stessa quantità per cui è aumentata a causa di tutte le attività umane, di tutto il mondo, negli ultimi 150 anni.

Battaglia, da scienziato, ben sa che nella scienza il buon senso spesso inganna (il sole che gira intorno alla terra…) ed ha così portato argomentazioni più serie per invalidare la lettura che era stata data alla Fig 1. Concordo con lui, ma è grazie alla sollecitazione derivante dal buon senso intuitivo che ho iniziato ad approfondire l’argomento sul quale oggi so assai più di prima, ed ho motivi più scientifici per confermare i miei ingenui dubbi iniziali.

Tornando alla Fig. 1 e alle tre linee in essa riportate avevo detto che:

  • La linea superiore, di colore nero, è costruita sulla base di dati reali.
  • Quella marrone, subito sottostante, costruita con i calcoli eseguiti sulla base del modello, è concordante con quella nera, per cui ne discenderebbe la validità del modello di calcolo impiegato.
  • La linea inferiore, di colore verde, ha un andamento grosso modo orizzontale ed è ottenuta usando lo stesso modello, validato da quanto sopra, ma usando i soli fattori naturali ed escludendo quelli antropici. Essa non mostra aumenti di temperatura, il che confermerebbe che i fattori naturali non sarebbero la causa.
  • La conclusione quindi era che Science is settled, la Scienza è stabilita, cioè ha confermato che il riscaldamento è dovuto ai fattori antropici, vale a dire alla produzione di CO

Su questa affermazione avevo anticipato delle riserve che ora esplicito.

  1. La coincidenza delle linee nera e marrone è stata ottenuta grazie a correzioni mirate apportate ai modelli precedenti. Questa è un’operazione lecita perché è nella logica dei modelli venire migliorati per approssimarsi alla realtà. Però il modello, per essere “validato”, deve dare valori corretti anche per altri aspetti della realtà analizzata; ad es. deve concordare coi dati del clima nel passato e nel presente. Il che non accade.

Basterebbe questo a invalidare le conclusioni che se ne sono tratte.[vii]

  1. Anche nella scienza i diavoletti maligni si nascondono nei dettagli che, a chi scrive, non sembrano neppure tanto piccoli. Il problema nasce dalla determinazione del valore della temperatura annua media globale. Essa viene misurata in base ai valori forniti dalle centraline climatiche dislocate in gran numero un po’ ovunque sulla terraferma e sui mari –in questo secondo caso poste su boe galleggianti. Soffermiamoci su quelle poste sulla terraferma. Probabilmente ne avrete vista qualcuna dislocata in qualche strada o piazza della vostra città. Qual è la loro distribuzione?

Esse sono molto più numerose nelle città rispetto a quelle disposte in zone rurali o ancora naturali, e questo soprattutto per facilità di accesso e controllo. Nelle città però, come noto, si creano le cosiddette “isole di calore” dovute agli impianti di riscaldamento, alle industrie, alla concentrazione del traffico automobilistico con la conseguente emissione dei gas di scarico degli autoveicoli. Il valore della temperatura qui rilevata è quindi superiore rispetto a quello delle zone rurali. Il valore medio globale che ne deriva non è quindi quello del riscaldamento reale di tutto il pianeta. E qui la sorpresa: qualcuno, per verifica, ha introdotto nei calcoli del modello il valore medio ricavato dalle sole centraline rurali, escludendo quello delle centraline situate nelle “isole di calore”, ed ha ottenuto come risultato un riscaldamento di 0,3°C minore rispetto al valore di 1,09°C. [viii]

Vediamo ora l’andamento della temperatura del pianeta negli ultimi 150 anni come raffigurato in un grafico della NASA, l’ente spaziale statunitense (FIG. 3).[ix] Lì si vede che nel periodo 1940 – 1980 la linea della temperatura ha un andamento orizzontale, pur essendo stato questo un periodo di intensa attività industriale e quindi di generazione di CO2. Qualcuno ricorderà che gli anni 1950-1978 vennero definiti “I trenta gloriosi”[x] grazie alla forte crescita della produzione industriale mondiale di quegli anni, e quindi di forte generazione di CO2. Il grafico rispecchia inoltre il fatto che il periodo dalla metà degli anni ’40 fino alla fine degli anni ’80, con le sue differenze di temperatura negative, venne giudicato, come già detto, come un inizio del ritorno del “grande freddo”.[xi]

Fig. 3

Tornando alle due ipotesi assunte nella formulazione del modello, e cioè della costanza nel tempo dei valori dell’irraggiamento solare e delle emissioni vulcaniche, esse sono state smentite dai due grafici della Fig. 4 elaborati da un gruppo di 23 ricercatori qualificati, fra cui Nicola Scafetta, che riportano l’andamento dei valori dall’anno 800 al 2000 e che mostrano grandi variazioni per entrambi i fattori.

FIG. 4

Il testo di Scafetta sopra citato (vedi nota 8) è significativo perché l’autore è attento a ricordare i canoni della scienza e ammette che le due teorie, quella della causa antropica e quella delle cause naturali, hanno ciascuna dei limiti sul piano scientifico, e ciò giustificherebbe il fatto che il dibattito è tuttora aperto e che «la letteratura scientifica non ha raggiunto delle conclusioni univoche e incontrovertibili e diversi studi propongono un’interpretazione climatica diversa da quella fornita dall’IPCC» (p. 59). Inoltre, riferendosi alla teoria delle cause naturali, di cui è sostenitore, Scafetta riconosce che «riguardo i periodi storici preindustriali le ricostruzioni climatiche non sono certe perché basate su proxi[xii] climatici e non su misure meteorologiche dirette. Questo fatto genera una certa incertezza» (p. 67). Il testo mi sembra scritto in modo diplomatico per non rompere un possibile dialogo fra le parti, tuttavia porta una serie di argomentazioni avverse alla teoria antropica che a me sembrano inequivocabili.

Scafetta è autore di importanti studi sui cicli solari che valorizzano la tesi delle cause naturali: le sue analisi hanno messo in evidenza diversi cicli con periodi ciascuno di circa 5,2 – 5,93 – 6,62 – 7,42 – 9,1 – 10,5 – 13,8 – 20 e 60 anni, e altri più brevi. Alcune di queste oscillazioni, come ad esempio quella di 60 anni, appaiono chiaramente in diverse sequenze climatiche per diversi secoli. L’aspetto più affascinante è stato scoprire che questi sono tutti periodi solari e astronomici.[xiii] Bisogna anche tenere presente che esistono delle configurazioni periodicamente variabili della configurazione spaziale del sistema “sole + pianeti + loro satelliti” e quindi del punto baricentrico dell’intero sistema solare. Ma mi fermo qui perché mi sono già addentrato in argomenti non di immediata comprensione, e mi limito alla conclusione facilmente comprensibile: «l’ipotesi fondamentale è che le oscillazioni gravitazionali del sistema solare associate al movimento periodico dei pianeti influenzino l’attività solare e, di seguito, questa influenzi il clima» (Scafetta, op. cit., pp. 72-73).

Un’ultima nota critica al modello, già anticipata: vi sono alcune discordanze di valori fra dati rilevati e valori calcolati riferiti al tempo presente. I valori della temperatura calcolati col modello nella zona più alta della troposfera, vale a dire circa 8-15 km di quota sopra i tropici, dove i gas serra sono più concentrati, sono assai più alti rispetto a quelli della superficie terrestre. Questa differenza non è confermata dalla misura diretta (Scafetta, pp. 69-71).

Infine un’ultima osservazione importante: i calcoli eseguiti col modello a cui ci stiamo riferendo avevano previsto per gli anni 1980-1990 un riscaldamento generalizzato su tutto il pianeta, mentre misurazioni satellitari mostrano un raffreddamento nella zona antartica e nel Pacifico equatoriale, e questo è in contrasto con quanto strombazzato dai media e cioè un riscaldamento generalizzato su tutta la Terra (Scafetta, p. 70). E ci sono anche discordanze sensibili sulle temperature fornite dal modello per quanto riguarda il passato.  Ad esempio, con riferimento ad andamenti accertati della ricostruzione riportata nella Fig. 2, il modello non rileva il periodo dell’’olocene ottimale’.

Giunti a questo punto, personalmente concluderei che questa teoria antropica è gravemente inficiata dalla discordanza con dati reali, mentre quella delle cause naturali ha molte frecce per il suo arco, anche se ancora non è affermabile con certezza. Prima di proseguire analizzando le altre quattro ipotesi circa le cause voglio fare chiarezza sui cosiddetti fenomeni meteorologici estremi. 

Cito da Franco Battaglia: «Infine, uno dei principali timori del riscaldamento globale è l’aumento per numero e intensità di fenomeni meteorologici estremi, tipo gli uragani. Se il GW (Riscaldamento Globale) fosse di origine antropica, allora basta intervenire alla fonte della presunta causa per scongiurare l’aumento, per numero e/o per intensità, degli uragani. […]   Gli uragani si contano e le Agenzie americane predisposte li stanno registrando, per numero e intensità, dal 1850 […] Se si eseguono le somme degli uragani che hanno colpito l’America[xiv] negli 80 anni compresi tra il 1850 e il 1930 e si confrontano con il numero degli uragani dei successivi 89 anni, compresi fra il 1930 e il 2010 […] si osserva che gli uragani, sia per numero che per intensità, sono diminuiti. Noi che scriviamo riteniamo la cosa una fluttuazione statistica.  Che però non potrà essere spacciata come aumento di uragani».[xv]

Battaglia spiega la percezione che oggi vi siano eventi climatici estremi in numero maggiore rispetto al passato col fatto che oggi si registrano danni maggiori. Il fatto è che con l’aumento della popolazione l’urbanizzazione è più intensa che nel passato, e così se un uragano di forza 4 in passato non causava danni su un’area non antropizzata, oggi anche un uragano di forza 1 può causare ingenti danni sulla stessa area che oggi è invece occupata dall’uomo. Plausibile ma non del tutto convincente, e vedremo dopo il perché.

Altro tema su cui spendere due parole è il “consenso scientifico”. Gira la notizia, diffusa dall’IPCC, che il 97% degli “scienziati” concorda con la teoria antropica. Questa è una lettura falsata di un sondaggio condotto fra più di 4.000 meteorologi statunitensi. Leggendo le domande e le risposte si vede che in realtà solo il 29% ritiene che l’uomo abbia contribuito a una quota fra l’81% e il 100% del riscaldamento globale dal 1960 ad oggi e, quindi, è in accordo con l’lPCC. Il rimanente 71% lo contraddice, ritenendo invece che i fattori naturali abbiano contribuito in modo più o meno rilevante al riscaldamento osservato (Scafetta, p. 56).

Da un’altra notizia letta recentemente apprendo che il documento Global Warming Petition Project, (Progetto di petizione sul riscaldamento globale), firmato da oltre 31.000 scienziati statunitensi, afferma che «non ci sono prove convincenti che il rilascio umano di anidride carbonica, metano od altri gas serra stia causando o causerà, nel prossimo futuro, un riscaldamento catastrofico nell’atmosfera terrestre e una trasformazione del clima terrestre. Vi è anzi una sostanziale evidenza scientifica che l’aumento di biossido di carbonio nell’atmosfera produca molti effetti benefici sugli ambienti naturali di animali e piante» (Il clima e la pista dei soldi – William Engdahl, journal-neo.org – 28 Settembre 2019).

3 – CAMBIAMENTO CLIMATICO E GEOINGEGNERIA: TECNOSCIENZA O FOLLIA?

Proseguiamo ora prendendo in esame le altre quattro modellazioni rimaste da esaminare. Riprenderò informalmente anche la settima cui avevo accennato, sulla quale nel frattempo è trapelato qualche altro dettaglio.

Attività spericolate in una civiltà tecnologicamente avanzata e bellicosa

Secondo la terza modellazione prospettata, le cause del cambiamento climatico in corso potrebbero essere dovute alle oltre 2.000 bombe atomiche sperimentali esplose dal 1945 al 1963 a livello del suolo, nel sottosuolo ma anche nell’atmosfera, e la cui potenza -e quindi i cui effetti- era molte decine di volte superiore a quella di Hiroshima e di Nagasaki. A questo vanno aggiunti gli effetti dei razzi vettori che le hanno portate in alto nell’atmosfera e di quelle centinaia -anzi ormai migliaia- di razzi lanciati da allora per i più diversi scopi; degli altrettanto numerosi satelliti artificiali ruotanti nella stratosfera; delle centinaia di migliaia di bombe esplose nel corso delle continue guerre, in particolare oggi nella guerra in Ucraina, e infine, per fare il “buon peso”,  il diluvio di radiazioni elettromagnetiche connesse alle tecnologie di comunicazione a distanza (3G, 4G, 5G, ormai anche 6G e, annunciata, 7G) che a loro volta perturbano l’atmosfera.[xvi]

L’argomento è stato trattato ampiamente in un libro scritto dalla scienziata canadese Rosalie Bertell, che svolse importanti incarichi a livello internazionale anche per conto delle Nazioni Unite, ed il cui titolo è: Pianeta Terra. L’ultima arma di guerra (Asterios, 2018). Essa era a conoscenza degli esperimenti di manipolazione del clima condotti da governi e organizzazioni militari, alle quali pure indirizzò la sua attenzione non limitandole alle “normali” attività di una società tecnologicamente avanzata appena ricordate.[xvii]

Esplosioni nucleari nell’atmosfera

Oltre a quelle terrestri o nel sottosuolo, una serie di esplosioni nucleari vennero effettuate nell’atmosfera fra il 1946 e il 1956 dalle potenze nucleari dell’epoca (Stati Uniti: 86; Unione Sovietica: 15; Gran Bretagna: 9), ad altezze via via maggiori fino addirittura alla ionosfera, e questo prima ancora di avere una precisa conoscenza di quegli strati, anzi, in certi casi le esplosioni vennero programmate anche per verificare alcune ipotesi. Così furono danneggiate le fasce di Van Allen e venne causato il primo buco nell’ozono, oltre alla riduzione fino al 1963 del 4% dello spessore del suo strato.[xviii]

Nel 1958 venne decretata una moratoria delle esplosioni in atmosfera, ma esse proseguirono nella ionosfera, accompagnate da altri esperimenti di cui vale la pena ricordare almeno il seguente: il lancio in un’orbita ionosferica di 350.000 milioni di aghi di rame (sì, 350 mila milioni) della lunghezza da 2 a 4 cm, al fine di migliorare le trasmissioni radio. Sui risultati però scese il silenzio e non se ne è saputo più nulla, almeno fino a quando la Bertell terminò la stesura del suo libro (2001). Non saprei dire se essi sono stati resi noti più recentemente, ma questa comunque fu la prima esperienza di porre in orbita aghi metallici, oggi proseguita con particolati di altri metalli e per scopi differenti, come dirò fra poco.

La Bertell nel libro commenta: «Noi abbiamo permesso che si facessero esplodere bombe nucleari nel cielo prima ancora di sapere che cosa esattamente sia il cielo e quale protezione dia alla biosfera della Terra, e abbiamo esposto la popolazione della Terra alle radiazioni, prima ancora che chiunque sapesse quanto possano essere pericolose».

È accertato come varie popolazioni sottoposte a questi esperimenti abbiano sofferto gravi conseguenze per la loro salute, come ad es. gli Inuit (esquimesi) del Canada nord-occidentale, che videro crescere vistosamente la mortalità per tumori. Con la stessa leggerezza si procede oggi con molti esprimenti della geoingegneria.[xix]

L’esplorazione dello spazio

La Bertell nel corso di 27 dense pagine del libro traccia la storia dei vari progetti realizzati nello spazio fino al 1997, dando conto delle conseguenze e delle “sorprese” derivate da questa “esplorazione” che certamente ha permesso di migliorare le conoscenze sulla struttura dell’atmosfera ma ha avuto, come detto, anche costi umani elevati. Essa ha posto l’attenzione non solo sulle esplosioni nucleari ma anche sugli effetti del numero di lanci di razzi per questo o altri scopi, di potenza via via crescente, azionati da combustibili chimici prima e nucleari poi.

Fra il 1967 e il 1973 furono lanciati 13 razzi Saturno 5, ciascuno dei quali richiede «3,45 milioni di Kg (sic!) di propellente solo per sollevarsi. Dopodiché consuma 12.700 kg di propellente al secondo per circa 150 secondi per dare al veicolo una seconda spinta, necessaria affinché raggiunga l’altezza e la velocità richieste». In un lancio del 1973, a causa di un errore di funzionamento nel razzo vettore Saturno 5, […] il secondo booster del razzo andò a fuoco a una grande altezza, insolita, cioè oltre 300 kilometri. Questo guasto si verificò sopra l’Atlantico meridionale, dove le fasce di Van Allen si piegano verso la Terra. «L’incendio generò un “un grande buco ionosferico”. […] Questa fu una sorpresa per gli scienziati i quali pensavano -o per meglio dire, avevano dato per scontato- che fra i gas di scarico del razzo e la ionosfera non si sarebbe verificata nessuna reazione». L’incidente mostrò la possibilità di aprire buchi nell’ozono in territorio nemico. Così, nel 1981, la missione dello Space-Lab 3 della NASA «fece “una serie di sorvoli sopra una rete di 5 osservatori posizionati a terra”, per studiare che cosa accadeva alla ionosfera quando lo Shuttle vi immetteva i gas prodotti dal funzionamento del Sistema di Manovra Orbitale (OMS)», e scoprì che si potevano aprire buchi sui quali si iniziò a fare esperimenti.[xx]

Il progetto HAARP

Uno dei progetti più oscuri della geoingegneria militare statunitense è il progetto HAARP, High-frequency Active Auroral Research Program, che ufficialmente è destinato allo studio delle aurore boreali, ragione per cui è stato qualificato come progetto civile, ma in realtà esso è stato finanziato e cogestito dal Laboratorio di ricerca dell’Aereonautica militare e dall’Ente ufficiale di ricerca della Marina statunitensi. Localizzato in una ex base della United States Air Force, Il progetto ha avuto varie vicende e oggi sembra essere passato nelle mani di una istituzione civile, e precisamente dell’Università dell’Alaska.

Come riferisce la Bertell, il progetto è nato con lo scopo di «generare onde a frequenza estremamente bassa (onde ELF) per la comunicazione con sommergibili in immersione, [ … ] generare lenti ionosferiche per focalizzare grandi quantità di energie ad alte frequenze (HF), in modo tale da avere uno strumento per scatenare processi ionosferici che potenzialmente fossero utilizzabili per scopi del Dipartimento della Difesa [ … ]» (vedi Bertell, pp. 111-136).

Da notare che le frequenze estremamente basse, in conformità con gli studi effettuati dallo scienziato serbo Nikola Tesla, sono in grado di generare terremoti a distanza e altri fenomeni.

 Il buco nell’ozono

Chi non è giovanissimo forse ricorda le preoccupazioni suscitate dal buco nell’ozono che si era formato negli anni ’80 sopra l’Antartide e le cui cause furono individuate nell’accumularsi sopra i poli dei gas CFC (clorofluorocarburi) emessi dalle bombolette spray e dal gas freon dei circuiti dei frigoriferi.[xxi] Il cloro in essi contenuto era alla base della eliminazione dell’ozono. Come detto, lo strato di ozono serve a trattenere i raggi ultravioletti provenienti dal sole, che altrimenti sarebbero cancerogeni. Il rumore mediatico fu grande e la paura degli effetti portò alla firma di un accordo internazionale per la cessazione dell’uso di questi gas e la loro sostituzione con equivalenti non clorurati (Protocollo di Montreal, 1989). Così fu possibile qualche anno dopo annunciare che il buco, che nell’estensione massima era divenuto grande come l’Antartide, si stava riducendo e si sarebbe completamente azzerato nel 2040. Ma così non sembra.[xxii]

Del buco nell’ozono con tutta probabilità si tornerà a parlare vivacemente da qui a tre mesi quando a Dubai, la capitale degli Emirati Arabi Uniti, dal 30 novembre al 12 dicembre prossimi si terrà la 28a COP, dove gli scienziati dell’Accademia Russa delle Scienze presenteranno una nuova ipotesi sul riscaldamento climatico. Da quel poco di notizie in più che ho letto da quando ne ho precedentemente accennato, la causa sarebbe da attribuire a fenomeni naturali legati alla dinamica dei moti dei corpi costituenti il sistema solare, che provocherebbero però un effetto diverso da quelli già qui presi in esame, e precisamente la liberazione di idrogeno naturale «causata dalle forze gravitazionali alternate della luna e del sole, che provocano buchi nello strato di ozono. Il conseguente rialzo delle temperature e la mescolanza di ozono e idrogeno sono le principali cause degli incendi di foreste e steppe»[xxiii] nonché delle “bombe di calore”. Le notizie che ho ad oggi sono tuttavia troppo scarse per discuterne qui. Presto se ne dovrebbe sapere di più.

La geoingegneria[xxiv]

Gli interventi tecnici intrapresi dall’uomo per influenzare il clima hanno preso il nome di geoingegneria, una controversa neo-tecnoscienza oggi in voga. Secondo Wikipedia «con il termine geoingegneria si designa l’applicazione delle conoscenze relative alle scienze geologiche all’ingegneria (geologia applicata), intesa come lo studio dell’influenza che alcuni fattori geologici possono avere su un’opera di ingegneria. Si tratta di una sovrapposizione di diversi ambiti ingegneristici e geologici: geologia applicata, ingegneria geotecnica, ingegneria ambientale». Per la Bertell, più sinteticamente e realisticamente «la geoingegneria è definita come ingegneria ambientale su scala planetaria della nostra atmosfera: cioè, manipolare il nostro tempo, i nostri oceani e il nostro pianeta stesso». In questo campo gli Stati Uniti sono gli ideatori dei progetti più avanzati, ed occorre notare che più volte i responsabili politici dell’Unione europea hanno chiesto una valutazione internazionale dei rischi che questi progetti comportano, ma non hanno mai ricevuto risposte soddisfacenti.

La geoingegneria militare

La prima volta che ho sentito parlare esplicitamente degli interessi militari circa la possibilità di intervenire tecnologicamente sul tempo è stato nel corso di una conferenza del generale Mini tenuta in Lunigiana una venticinquina di anni or sono in occasione di un incontro di movimenti sociali. Già ne avevo letto o sentito parlare, ma non in modo così assertivo (e sconcertante) come ne parlò lui. Lessi anni dopo un suo ampio articolo pubblicato sulla rivista di geopolitica Limes dal titolo «Owning the Weather: La guerra ambientale globale è già cominciata».[xxv]

In realtà il problema era stato affrontato già assai prima a livello internazionale a seguito di quanto accaduto nel corso della guerra al Vietnam, e nel 1977, a Ginevra, in sede Nazioni Unite era stata firmata, inclusi Stati Uniti e Russia, la Convenzione ENMOD (Environmental Modification Convention), ratificata l’anno successivo dall’Assemblea Generale, che sanciva il «divieto di uso militare o di qualsiasi altro uso ostile delle tecniche di modifica ambientale con effetti diffusi, di lunga durata o gravi». La Convenzione ha definito «tecniche di modificazione ambientale» tutte quelle «tecniche mirate a cambiare – attraverso la manipolazione deliberata di processi naturali – la dinamica, la composizione o la struttura della terra, compreso il suo biota, la litosfera, l’idrosfera e l’atmosfera, o dello spazio esterno».[xxvi] La sostanza della Convenzione del 1977 è stata riaffermata, però in termini molto generali, nella Convenzione quadro sui cambiamenti climatici (UNFCCC) firmata al Vertice della Terra del 1992 a Rio de Janeiro.

Ma a parte questa occasione, da 31 anni l’argomento non è stato più affrontato in nessun consesso internazionale né mai sollevato nei successivi vertici climatici dell’UNFCCC perché non fa parte del dibattito sul cambiamento climatico dovuto all’effetto serra.

In un documento disponibile sul sito Global Research[xxvii] si legge:

Come dice Claudia von Werlhof, la geoingegneria militare è una macro-tecnologia per influenzare e cambiare i processi planetari e allo stesso tempo una micro-tecnologia per influenzare i nostri corpi e le nostre menti, una tecnologia di controllo mentale. Ma la geoingegneria militare non è solo tenuta nascosta al pubblico […] Nel frattempo, la vera geoingegneria sta, comunque, trasformando violentemente il pianeta per uso militare contro di noi e se stesso. Ciò significa che Madre Terra viene “armata”, cercando di trasformarla in una gigantesca macchina da guerra.

Sempre in questo testo di Global Research c’è una confessione “ufficiale” sull’impiego dell’atmosfera terrestre come arma di guerra:

[La modifica del tempo] offre al combattente una vasta gamma di possibili opzioni per sconfiggere o condizionare un avversario […]. La modifica del tempo diventerà parte della sicurezza nazionale e internazionale e potrebbe essere fatta unilateralmente […] Potrebbe avere applicazioni offensive e difensive e persino essere utilizzata per scopi di deterrenza. La capacità di generare precipitazioni, nebbia e tempeste sulla terra o di modificare la meteorologia spaziale […] e la produzione di tempo artificiale fanno tutte parte di un insieme integrato di tecnologie [militari]” (US Air Force, documento AF 2025 Final Report).

La geoingegneria civile

Abbiamo detto all’inizio che questa può avere due scopi: modificare il tempo per favorire certe coltivazioni o combattere la siccità, oppure, oggi soprattutto, attenuare il riscaldamento climatico. Questo se la causa del riscaldamento è quella sostenuta dall’IPCC, e cioè l’effetto serra causato dai gas. Il tema è ampio, come pure la casistica. Basterebbe ricordare che nel 2012 erano stati depositati 300 brevetti di geoingegneria climatica e che questi oggi sono più di 1700[xxviii]. Ovviamente il sistema migliore sarebbe quello di riportare la quantità dei gas serra al valore che avevano prima dello sviluppo industriale quando, secondo questa lettura, non esisteva il problema del riscaldamento climatico. Essendo la CO2 ritenuta la principale responsabile, l’obiettivo dell’IPCC è di arrivare a emissioni zero di questo gas entro il 2050.

Per ridurre la sua quantità presente oggi nell’atmosfera e tenendo conto che nuove quantità si aggiungeranno da qui al 2050, anche se in misura decrescente, uno dei metodi ipotizzati che sta suscitando un grande interesse è la cattura delle quantità eccedenti per poi imprigionarle in cavità del terreno, ad es. quelle create dall’estrazione degli idrocarburi.

Altra soluzione sarebbe quella di ridurre l’irraggiamento solare che giunge sulla terra, “sbiancando” le nuvole in modo che riflettano fuori dal sistema terrestre una parte della radiazione solare. Uno dei primi progetti di questo tipo venne sponsorizzato da Bill Gates, che intorno al 2010 finanziò con 300.000 dollari un progetto di sbiancamento delle nuvole marine tramite l’immissione di strisce argentate (Silver Lining Project). In questa tipologia di progetti rientra quello di inquinare intenzionalmente gli strati superiori dell’atmosfera con zolfo o particolato di alluminio di dimensioni nanometriche avente alta riflettività, anche questo per riflettere verso l’esterno parte delle radiazioni solari in arrivo.[xxix] Un altro progetto ancora è quello della “fertilizzazione degli oceani”, ottenuta disseminandoli di ossidi di ferro per accrescere la produzione di alghe verdi che assorbono la CO2.

C‘è chi sostiene di estendere le zone umide presenti in grande quantità sul pianeta perché esse funzionano come una grande spugna che assorbe forti quantità di CO2 ma purtroppo in realtà si sta assistendo alla loro progressiva distruzione. Infine un’altra soluzione: aumentare la quantità di CO2, assorbita dagli alberi grazie alla funzione clorofilliana, con piantagioni di alberi e con l’introduzione di alberi geneticamente modificati. Ma non dobbiamo dimenticare che una foresta sana non è un insieme di alberi. Ad esempio, una piantagione di palme da olio ha un gran numero di alberi, ma non genera nuvole, non rinfresca l’aria, non costruisce il suolo o non previene la siccità, come invece fa una foresta.

Però la CO2 può essere vista anche attraverso i suoi effetti benefici, dato che nelle zone temperate la più alta temperatura unita alla maggior quantità di CO2 presente oggi nell’atmosfera favorisce l’ampliamento delle zone verdi. Per contro, si obbietta che è stato osservato che la sua maggior quantità inspessisce le foglie[xxx] ostacolando la funzione clorofilliana. Valutare quindi i pro e i contro esaminando singoli fenomeni senza un’analisi d’insieme rischia di essere dispersivo e contraddittorio. Addentrarsi in queste problematiche non è semplice e richiederebbe molto più spazio.

Una notizia quasi fresca di giornata[xxxi] è relativa al progetto SRM (Modifica della radiazione solare) approvato nel giugno scorso dal presidente statunitense Joe Biden.[xxxii] Esso viene gestito con l’ausilio di un nuovo supercalcolatore denominato Derecho, dotato di una velocità di calcolo molto superiore a quella dei precedenti, con il quale verrà studiato in particolare il modo in cui «gli aerosol prodotti dall’uomo, che possono essere utilizzati per deviare la luce solare, potrebbero influenzare i modelli di pioggia». Come già detto, i calcolatori, per “super” che siano, forniscono risultati in base ai dati che vengono immessi, e se questi non sono corretti, altrettanto sarà per i risultati: la conoscenza dei fenomeni climatici, ripetiamo, è lungi dall’essere chiara in alcuni dei suoi meccanismi fondamentali.

Riscaldamento climatico e dissesto ambientale

Resta da esaminare la relazione fra riscaldamento climatico e dissesto ambientale, che attribuisce al secondo la causa del primo. È certo che esiste una relazione fra stato dell’ambiente e clima, quello locale però. Tradizionalmente si parla infatti di “clima mediterraneo”, “clima tropicale”, etc. Ma abbiamo anche visto che per definizione il “cambiamento climatico” di cui si sta parlando è una variazione di lungo periodo della temperatura media globale del pianeta Terra. Così il problema è oggi affrontato come fenomeno globale per il quale vanno trovate soluzioni globali. Ma questo non è il modo corretto per affrontare il problema, perché c’è una stretta connessione fra condizioni climatiche locali e contesto ambientale locale.

L’investigazione del passato, almeno degli ultimi 10.000 anni, ci dice, come abbiamo visto, che questo cambiamento climatico ha un’entità fra + 2 – 2°C rispetto a un valore medio preso come riferimento. Certo, anche se piccola, questa variazione ha la sua influenza: i ghiacciai si erano ritirati e poi si sono nuovamente estesi, per poi iniziare oggi a ritirarsi di nuovo; la Groenlandia divenne coltivabile e poi non più, e così via. Questi fatti richiedono un riassestamento delle attività umane che però non è certo drammatico e non mette in crisi la prosecuzione della vita sulla Terra.

Il problema vero, più drammatico, sono invece gli sconvolgimenti che il “nostro” modello di civiltà ha prodotto nell’ultima fase storica, detta della Modernità, frutto della separazione dell’homo sapiens dalla natura, vista come oggetto a lui esterno e fonte inesauribile di risorse. Ne è derivata una crescita di capacità tecnica che ha esaltato la mente umana, facendole credere che ogni cosa che viene immaginata sia possibile farla, anzi doveroso, e che alle sue potenzialità non ci siano limiti. Ivan lllich, studioso critico radicale della Modernità, aveva detto: «Quello che più mi preoccupa non è ciò che la tecnica fa ma quello che essa dice alla mente dell’uomo».

La natura come “risorsa”

Negli anni fra il 2003 e il 2009 ho presenziato a tre vertici amerindi di Abya Yala[xxxiii]. Soprattutto nel secondo rimasi stupito della lucidità con cui si parlò e si rifiutò l’idea della natura vista come “risorsa”, una irrazionale “credenza” occidentale. Fra l’uno e l’altro ho compiuto altri viaggi in quell’area e partecipato ad altri incontri che hanno a poco a poco modificato la mia idea di “progresso” di fronte alle distruzioni portate avanti da questo nostro mito. Uno dei risultati è l’odierna distruzione delle grandi foreste equatoriali ad un ritmo ancor più veloce che in passato, foreste che erano state mantenute in vita grazie alle culture dei loro abitanti. In quegli anni assistetti al delirante dibattito sul fatto che si dovevano costituire delle “riserve” naturali spopolandole dei loro abitanti visti come pericolosi disturbatori.

Chi scrive vive nella piana di Lucca, uno dei principali poli cartari esistenti, e assiste con forte malessere al traffico giornaliero di TIR che fanno la spola dal porto di Livorno trasportando carichi di cellulosa colà sbarcati e provenienti dalla distruzione delle foreste amazzoniche (e questo, fra l’altro, per rendere “più soffice” la carta detta “igienica” impiegata al termine di delicate operazioni corporali quotidiane).

All’università ho avuto un compagno di corso molto brillante negli studi e anche politicamente impegnato, sensibile ai problemi ecologici. Venti anni dopo lo ritrovai al vertice di una delle grandi corporation brasiliane produttrici di cellulosa, proprietaria di un impianto di trasformazione del legname in cellulosa, installato su una gigantesca chiatta che naviga lentamente lungo il Rio delle Amazzoni, seguita a terra da squadre di boscaioli che disboscano a pieno ritmo per alimentare i “bollitori” installati sulla chiatta. Recentemente ho appreso che due delle cartiere divoratrici di cellulosa presenti nel “polo” lucchese pretendono di acquistare un volto ecologico finanziando progetti di riforestazione in Amazzonia. Se qualcuno dei lettori conosce il magnifico libro di Jean Giono, L’uomo che piantava gli alberi[xxxiv] -che andrebbe letto a tappeto nelle scuole- starà sorridendo amaramente.

I più avveduti dei lettori di queste note sapranno cosa sono i progetti REDD+ che, detto sinteticamente, concedono il diritto di generare CO2 in cambio del finanziamento di progetti di rimboschimento in paesi terzi, tali da garantire una equivalenza fra la CO2. generata e quella assorbita dai nuovi alberi. Un atteggiamento responsabile, no? È dei giorni scorsi la notizia che ho letto sul web (da anni non compro e non leggo i giornali). Una ricerca effettuata da un gruppo di ricercatori inglesi e olandesi su 26 progetti REDD+ in atto rivela come essi siano in realtà truffaldini. Questi progetti di riforestazione finanziata avrebbero dovuto compensare la produzione di 89 milioni di tonnellate di CO2 ma in realtà ne hanno compensati solo 5,4, cioè il 94% in meno.[xxxv] Però la brava massaia che compra il latte M… al supermercato, leggendo sul contenitore: «Questa confezione in cartone (plastificato, aggiungo io) è una buona scelta» e, subito sotto, con caratteri cubitali: «PIU’ PIANTE MENO CO2», è convinta di contribuire a «salvare il pianeta».

L’amico e maestro Gustavo Esteva non era uno scienziato ma un buon “animale politico”, consapevole e battagliero. In un articolo scritto in occasione della pandemia dal titolo: Il giorno dopo – Abbiamo perso il terreno sotto i piedi, scriveva:

L’invenzione dell’ecologia globale in occasione del Vertice sulla Terra di Rio, nel 1992, mise il problema di occuparsi di questa nelle mani dei governi e delle corporation che sono la principale causa della distruzione ambientale. Esso venne così sottratto al vigoroso movimento ecologista impegnato in azioni concrete “rasoterra”, le cui crescenti mobilitazioni avevano portato alla convocazione del Vertice. Questa invenzione dell’ecologia globale, una delle forme della “globalizzazione”, preparò a poco a poco la gente ad accettare la realtà dei “problemi globali” e quindi della necessità di “rimedi pure globali”, che evidentemente non potevano essere opera delle persone comuni, cioè della maggioranza della gente. “Salvare il pianeta” apparve come una rivendicazione sensata, che poteva essere affrontata e risolta solo dall’alto.

È evidente che trasferire il problema ecologico al livello “globale”, in mano ai governi e alle grandi Istituzioni tipo le Nazioni Unite, significa politicizzarlo, come ho già detto nella prima parte. Decriptare le ragioni e gli obbiettivi politici che stanno dietro ai grandi dibattiti tecno-scientifici è un problema che non ho affrontato e me ne dolgo. Lo farò in altra occasione, quando potrò documentare meglio quello che penso. Ma una cosa mi amareggia e voglio dirla subito: la progressiva subordinazione del pensiero della maggioranza delle persone alle “ragioni” del capitale e più in generale a quelle di chi comanda, anche nel campo di quella che era chiamata la “sinistra”, dove sarebbe necessario praticare ciò che l’amico ecologista messicano Armando Bartra chiama “una purga da cavallo”[xxxvi]. È un fenomeno che ha radici lontane e meriterebbe una riflessione più approfondita.

La mia conclusione: occorre togliere il terreno sotto i piedi ai “globalizzatori” prima che sia troppo tardi, recuperando consapevolezza e senso della realtà. Dietro la disputa climatica di quelli “in alto” c’è un nuovo modello di dominazione del mondo. Per fortuna sembra essere in fase di recupero una certa dose di spirito critico, con la crescita di un pugno combattivo di scienziati che stanno pensando realisticamente in modo “vecchio”, ma nuovo nel contesto attuale, tornando all’analisi del e sul territorio, consapevoli della complessità della rete della vita.

Un’altra narrazione è possibile. Alcuni spunti

* «Ridurre le variazioni climatiche al rapporto tra effetto serra dovuto all’anidride carbonica ed aumento della temperatura media della superficie terrestre comporta una semplificazione che finisce con l’occultare la diversità delle influenze dell’animale uomo sul clima nonché le conseguenze stesse della variabilità naturale sul lungo periodo. Per la verità, nessuno è in grado d’esperire l’effetto dell’aumento di un mezzo grado centigrado nella temperatura media della Terra entro la fine del secolo. Come scrive Gordon Bonan del National Center for Atmospheric Research, il mutamento della superficie boschiva di una determinata regione influenza il clima locale in misura più che doppia rispetto all’inquinamento atmosferico provocato dall’anidride carbonica. Del resto se si esamina, senza preconcetti ideologici, la letteratura sull’argomento emerge, con bella evidenza, come la modificazione nell’uso antropico del terreno o nella sua manutenzione -segnatamente per via dell’espansione e dell’intensificazione dell’attività agricola- abbia avuto un impatto di tutto rilievo su scala locale e regionale, e questo perfino quando il loro effetto medio globale risulti trascurabile o addirittura nullo. Si stima che la superficie terrestre totale coltivata a cereali sia cresciuta, tra il 1700 e il 2000, da 300 a 1530 milioni di ettari; mentre la superficie destinata a pascolo è aumentata in quello stesso lasso di tempo di oltre dieci volte».[xxxvii]

* Clima. Una nuova storia. «Di fatto ci troviamo di fronte a una gravissima crisi climatica. Tuttavia, la minaccia principale non è il riscaldamento in sé; è quello che potremmo chiamare “squilibrio climatico”. Questo squilibrio è causato principalmente dal degrado degli ecosistemi in tutto il mondo: il prosciugamento delle zone umide, il taglio delle foreste, l’aratura del terreno e l’erosione del suolo, la decimazione dei pesci, la distruzione degli habitat, l’avvelenamento dell’aria, del suolo e dell’acqua con sostanze chimiche, lo sbarramento dei fiumi, lo sterminio dei predatori, e così via. Perturbando il ciclo del carbonio, il ciclo dell’acqua e altri misteriosi processi di Gaia, queste attività degradano la resilienza dell’ecosfera, rendendola incapace di far fronte ai gas serra aggiuntivi emessi attraverso l’attività umana. […] La teoria climatica standard dà il primato al forzante radiativo della CO2 come causa del cambiamento cli­ma­ti­co, relegando il degrado dell’ecosistema in una posizione secondaria. Nella teoria climatica standard, il forzante radiativo (l’effetto serra) riscalda l’atmosfera solo di poco più di 1 grado Celsius per ogni raddoppio di anidride carbonica. Di per sé, questo dà pochi motivi di allarme. Ciò che è allarmante è la potenziale amplificazione di tale riscaldamento attraverso una serie di retroazioni positive. Sosterrò che queste ultime dipendono dai processi biologici molto più di quanto non sia stato notato. Quando i sistemi biologici sono degradati, perdono la loro capacità di adattarsi ai cambiamenti climatici e di mantenere condizioni stabili in cui poter prosperare».[xxxviii]

* «(è) molto difficile dire che per me la terra e il suolo sono ancora la stessa cosa. Voglio poter baciare il suolo su cui mi trovo, poterlo toccare. La terra che non è nient’altro che una fotografia scattata da un Hasselblad che orbita su un satellite è la negazione della terra […] La terra è qualcosa che puoi annusare, che puoi assaporare. Io non vivo su un pianeta». E ancora: «Nella nostra società l’ecologia è diventata un’importante istituzione educativa, un’importante influenza formativa, un importante fornitore di concetti chiave attraverso i quali possiamo parlare di ciò che è rilevante per la sopravvivenza e giustificare come amore per la natura una vicinanza puramente intellettuale alle piante, agli alberi o ai prati. […] Celebrare il presente e celebrare utilizzando il meno possibile, perché è bello, e non perché è utile per salvare il mondo».[xxxix]

VERITÀ E SCIENZA OGGI

Lo scritto si è allungato e procedo stringatamente verso la fine con una riflessione sul ruolo che oggi gioca la scienza nella nostra società. Essa è assurta a religione laica, e guai a mettere in dubbio le sue verità. Si viene laicamente “scomunicati”. Colui che esprime dubbi viene esposto al pubblico dileggio come “terrapiattista”, e contro di lui è stata creata una nuova figura di “nemico dell’umanità” (sic!), quella del “negazionista”, che ha fatto presa su una consistente parte dell’opinione pubblica acriticamente schierata col “potere”, come già era apparso evidente in occasione dell’ultima pandemia.

Le “verità” scientifiche annunciate dai media con rulli di tamburo sono in buona percentuale false o deformate, o appena ancora al semplice stato di ipotesi. In occasione della recente pandemia la più stimata rivista medica, The Lancet, pubblicò un servizio “Peer-Reviewed” sul fatto che il 50% delle notizie sui “promettenti” successi della biologia molecolare fossero false. Forse doveva farsi perdonare due passi falsi relativi all’idrossiclorochina e all’ivermectina.

Del resto siamo entrati nell’epoca del “digitalocene”, ovvero della “post-verità”, come ci avvertono alcuni analisti della AI (Intelligenza Artificiale). Epoca in cui già viviamo, con le nostre protesi artificiali del PC e dello smartphone. Definizione, questa, che preferisco a quella di “antropocene”, perché più aderente alla realtà.

Come si manipolino i fatti l’ho appena ricordato. La scienza di oggi è la tecno-scienza di cui parla Einstein nella lettera citata sopra, ed è quella liquidata da Ivan Illich, un pensatore in buona parte ancora incompreso, che chiudeva un lungo dialogo con David Cayley facendo il punto sul discorso ecologico (1992) con queste parole:

«Nel 1992 non sono davvero più interessato alle teorie scientifiche. Erano molto interessanti negli anni Sessanta e ancora più interessanti quando studiavo le scienze finanziabili, e in Germania riguarda solo compiti per i quali possono essere creati ruoli nell’amministrazione pubblica. Voglio dire: smettiamola di appellarci alla scienza. Quello che c’è di sbagliato in Gaia[xl] è che questi vogliono essere scientifici. Che differenza ci sia fra questo tipo di scienza e la religione, io non lo so».[xli]

Aldo Zanchetta – settembre 2023

P.S. Non ho inteso fare un documento conforme ai canoni delle documentazioni scientifiche, anche se ho fatto ampio uso di note. Ho ricordato qua e là qualche amico personale (Gustavo, Giovanni, Ivan, Armando) per sottolineare quanto gli amici abbiano contato e contino nella mia vita. Solo nel sedersi assieme attorno ad una tavola conviviale per discutere guardandosi negli occhi, una tavola dove non siano assenti un piatto fumante di spaghetti e un fiasco di vino “dignitoso” (Illich), si costruisce il saper vivere, arte che l’uomo moderno di cultura occidentale o occidentalizzante ha perduto. Un grazie a chi ha fatto qualche commento, positivo o negativo che sia stato, a queste mie note, aperte a modifiche e a correzioni ove opportuno.

APPENDICE 1

La struttura dell’atmosfera terrestre

«Se si cerca di descrivere la Terra e gli strati che la proteggono bisogna figurarsi che il pianeta corre attraverso lo spazio a un’incredibile velocità, cioè 107.280 chilometri all’ora, compiendo un’orbita ellittica intorno al Sole. Oltre a muoversi a questa incredibile velocità, la Terra compie un giro sul proprio asse una volta al giorno. Questi moti fanno sì che gli strati dell’atmosfera non si trovino in ogni momento alla medesima distanza tutt’intorno al globo: il lato della terra che è avanti avrà un’atmosfera più sottile, che sarà trascinata indietro verso il lato posteriore; gli strati atmosferici generalmente si trovano più vicini tra loro in corrispondenza dei poli magnetici, e più lontani fra loro all’Equatore. L’atmosfera viene inoltre influenzata da modificazioni sul Sole, sulla Luna e nel cosmo. Nelle seguenti descrizioni presento delle indicazioni di misure che sono valide approssimativamente per le zone temperate settentrionali».[xlii]

Come si vede nella figura (da Wikipedia), nell’atmosfera si distinguono i seguenti strati:

La troposfera, quello più vicino alla terra, ha un’altezza media di circa 10 km. La temperatura si abbassa andando dal basso verso l’alto, iniziando poi a innalzarsi. 10 km è l’altezza a cui in genere volano gli aeroplani civili.[xliii] Nella troposfera circolano, lungo uno strato sottile situato a 3 km di altezza, delle grandi masse di vapore acqueo simili a fiumi, cinque nell’emisfero nord e cinque in quello sud, ed è attraverso questi che la Terra porta acqua da una zona all’altra del globo, ad es. dalle foreste pluviali tropicali alle zone temperate. Essi hanno grande influenza sul clima e la Bertell annota: «Secondo alcune congetture, manovre che interferiscano con questi fiumi possono scatenare inondazioni o indurre siccità».

La stratosfera si estende dai detti 10 km fino a circa 50 km di altezza e diventa sempre più calda andando verso l’alto. A un’altezza di circa 25 km c’è uno strato di ozono, ovvero ossigeno la cui molecola è formata da tre atomi anziché da due. L’ozono è velenoso per gli esseri viventi (e dannoso per le coltivazioni), ma a queste altezze è provvidenziale perché trattiene le radiazioni ultraviolette che provengono dal Sole e che sono cancerogene. L’ozono è presente in quantità minime anche a livello della troposfera, in particolare ove è presente lo smog.[xliv] Ad un’altezza intorno ai 10 km ci sono sottili fasce di venti ad alta velocità che girano attorno alla terra, chiamati jet stream (correnti a getto).

La mesosfera. Man mano che si sale la temperatura cresce ancora fino a un picco definito stratopausa. Qui inizia la mesosfera, in cui la temperatura inizia invece a calare fino a un valore minimo che è situato a 80 km di altezza (mesopausa).

La ionosfera ha inizio a questa altezza. In realtà essa è divisa in due strati. Il primo, molto caldo, si estende dagli 80 ai 100 km di altezza (termosfera), con temperature fra i 300 e i 1700°C. Sopra c’è l’esosfera, dai 100 ai 600 km di altezza, nella quale la temperatura cala progressivamente. È in questo strato che viene messa in orbita la maggior parte dei satelliti per comunicazioni. La ionosfera, come dice il nome, è elettricamente carica e quindi capace di condurre elettricità, mentre la terra e gli strati inferiori dell’atmosfera sono elettricamente neutri. Oggi la ionosfera viene anche divisa in tre regioni separate, non in funzione della temperatura ma del grado di ionizzazione. La ionizzazione è causata dai raggi solari, e come osserva la Bertell la ionosfera «è uno degli strati protettivi più importanti che ricopre la Terra schermandoci così da particelle solari e cosmiche dannose».

Nella ionosfera, a un’altezza di 120 km, ci sono di nuovo due “fiumi” assai grandi di corrente elettrica continua denominati elettrojet, che si abbassano un po’ in corrispondenza dei due poli, nord e sud, e che muovono particelle cariche elettricamente.[xlv]

Al di là della ionosfera c’è la magnetosfera, dove il movimento degli ioni è ancora controllato dalla forza magnetica della terra (mentre al di sopra di essa è controllato dal campo del Sole). Al suo interno esistono delle gigantesche linee di forza magnetiche che corrono fra i poli magnetici e che vengono chiamate fasce di Van Allen, scoperte nel 1958.

Fasce di Van Allen e linee di forza magnetiche

Esse hanno una distanza dalla Terra che va dai 6.500 km di quella inferiore ai 51.500 km di quella più esterna. A causa dei moti di rotazione e di oscillazione della Terra, la fascia più interna scende fino a 200 km in corrispondenza dell’Atlantico meridionale.

Vento solare: questo è il nome dato alla corrente di particelle cariche ad alta energia emesse dal Sole, vento che ha massima intensità durante le macchie solari (violente esplosioni che creano protuberanze sulla superficie del Sole), come abbiamo accennato nel secondo scritto. Le particelle che arrivano sulla terra provenienti dal Sole o dal cosmo vengono catturate dalle fasce di Van Allen; quando le fasce vengono disturbate da tempeste elettromagnetiche, queste particelle possono raggiungere l’atmosfera superiore della Terra nella zona dei Poli dando origine allo spettacolo dell’aurora boreale (emisfero nord) e dell’aurora australe (emisfero sud). Aurore boreali sono state generate artificialmente durante esperimenti condotti con l’impianto HAARP.

Quindi l’atmosfera non è quello strato omogeneo di “aria” che si è portati a immaginare guardando il cielo azzurro in una giornata priva di nuvole. Data questa struttura complessa e delicata ora descritta, il deprecato buon senso suggerirebbe che sconvolgere uno o più di questi strati dovrebbe essere fatto con una certa attenzione, anche perché non è ancora completamente chiaro come il tutto funziona. Ma, come è noto, il buon senso non ha valore scientifico.

 APPENDICE 2

I modelli climatici

«Con i modelli fisico-matematici di clima, mediante simulazione numerica su elaboratore elettronico, si cerca di rappresentare l’evoluzione dell’intero sistema climatico, includendo descrizioni dei singoli sottosistemi del sistema climatico. Ognuno dei sottosistemi viene rappresentato mediante un proprio modello e le interazioni tra le varie parti vengono simulate mediante scambi di energia. Il modello più complesso è quello che descrive il sottosistema atmosfera, in quanto sede dei fenomeni più direttamente connessi con il clima stesso. I modelli atmosferici più accurati tengono conto degli effetti di irraggiamento solare, copertura nuvolosa, concentrazione di inquinanti in varia forma (solida, aerosol) e di varia origine (umana, vulcanica ecc.), vegetazione ecc.; tengono ovviamente conto anche della distribuzione di acque e terre emerse. Le equazioni del modello vengono risolte su una maglia discreta tridimensionale. I risultati delle simulazioni del clima mediante modelli consentono di prospettare i diversi scenari della sua possibile evoluzione nel futuro prossimo, i quali dipendono anche dalle attività umane (emissioni di gas, rilascio di aerosol, coltivazioni, deforestazioni ecc.) che interagiscono con i diversi sottosistemi.

È comunque da tenere presente che i modelli sono basati su approssimazioni di varia natura, per es. impiegano una griglia discreta, che non può tener conto di aspetti della orografia e altimetria locale, e includono descrizioni approssimative di alcuni elementi importanti, quali la copertura nuvolosa e gli aerosol, o gli scambi di anidride carbonica fra oceani e atmosfera. Date le comunque relativamente piccole variazioni previste e le notevoli fluttuazioni dei parametri climatici (soprattutto su scala locale), la convalida e il miglioramento dei modelli si fondano su sistematici e dettagliati studi sperimentali, che richiederanno alcuni decenni. Un contributo fondamentale potrà venire soprattutto da sistematiche misure satellitari di assorbimento, rifrazione ed emissione della radiazione nell’atmosfera» (Da Enciclopedia Treccani online).

APPENDICE 3

Clima. Una nuova storia

Nel suo libro Climate. A New Story (ora disponibile online in italiano), Charles Eisenstein ha cercato di affrontare la questione climatica da diversi punti di vista, spesso trascurati. Dopo aver cercato di esplorare senza preconcetti la cosiddetta ‘narrativa standard’ sul cambiamento climatico, con le sue motivazioni e i dati scientifici su cui si appoggia, e dopo aver prestato attenzione alle confutazioni e al reciproco dibattito tra chi la sostiene e chi la rifiuta, l’autore ha portato avanti la sua indagine a partire da altri paradigmi, che gli hanno permesso di allargare la prospettiva e di individuare una gamma più ampia di approcci e di tattiche che è possibile mettere in atto, considerando quanto e come la guarigione ecologica e il ripristino dell’equilibrio degli ecosistemi siano fondamentali per affrontare i problemi del cambiamento climatico.

Di particolare interesse è l’analisi condotta da punti di vista diversi rispetto da quello consueto, incentrato sulle emissioni di CO2.

Il capitolo 4, ad esempio, analizza la questione attraverso la lente dell’acqua, il cui ciclo è strettamente intrecciato al ciclo del carbonio.

Il capitolo 5 esamina il ciclo del carbonio, richiamando l’attenzione sugli ecosistemi, sulle condizioni del suolo e sulla biodiversità, riportando dati da studi recenti e ponendo l’accento sulle connessioni sinergiche tra i sistemi, ignorate nei calcoli e nelle strategie correnti.

Il capitolo 8 affronta il tema della rigenerazione, con riferimento da un lato all’agricoltura e dall’altro al rapporto con la natura ‘selvatica’.

Di fronte al dibattito attualmente in corso fra ‘allarmisti’ e ‘negazionisti’ del cambiamento climatico, l’autore osserva che, «come avviene per molte questioni che provocano una forte polarizzazione, sono i presupposti nascosti, condivisi da entrambe le parti e non contestati da nessuna delle due, ad essere i più significativi».

Fra questi presupposti nascosti, l’autore elenca: la natura concepita come ambiente, separata da noi; il clima governato da processi geo-meccanici e non da processi vitali; la natura concepita come macchina; la quantificazione alla base della conoscenza; la riduzione della realtà a ciò che è misurabile, escludendo tutto ciò che non è quantificabile, ma che comunque contribuisce in modalità che non riusciamo a riconoscere all’equilibrio della biosfera; una quantificazione che va di pari passo con la monetizzazione; la volontà di far quadrare i numeri per poter continuare a mantenere in funzione la macchina industriale e il sistema economico che ci hanno portati fin qui.

Analizzando in maniera approfondita tutto questo, ciò che l’autore ritiene, in sintesi, è che:

– La crisi climatica è gravissima, ma la minaccia principale è lo «squilibrio climatico», causato dal degrado degli ecosistemi e dall’interruzione di cicli fondamentali come quello del carbonio e quello dell’acqua. Tutto ciò degrada la capacità dell’ecosfera di far fronte ai gas serra aggiuntivi emessi dall’attività umana.

– La minaccia di primaria importanza non è l’aumento di CO2, ma la potenziale amplificazione di questo riscaldamento dovuta a processi di feedback positivi, dovuti al degrado degli ecosistemi.

Lo squilibrio climatico rimarrà anche se cesseranno le emissioni e le temperature medie rimarranno costanti, perché la Terra è un corpo vivente di cui abbiamo distrutto tessuti e organi. Il processo è iniziato con la deforestazione e l’erosione del suolo, ben prima dell’era industriale, che tuttavia negli ultimi secoli ha dato una grande spinta.

In sintesi, in entrambi i casi (narrativa standard vera o falsa che sia) la priorità più urgente è proteggere e ripristinare il suolo, l’acqua e gli ecosistemi in tutto il mondo.

Per fare questo è necessario partire da altri presupposti. È necessario riconoscere

– che la terra è un organismo vivente;

– che tutto contribuisce alla salute dell’insieme;

– che tutti gli esseri meritano rispetto come soggetti vivi e non semplici cose;

– che qualsiasi danno agli esseri e all’integrità del pianeta danneggia inevitabilmente gli esseri umani;

– che il clima psichico, le nostre credenze, il clima politico e sociale sono connessi al clima atmosferico;

– che l’umanità è chiamata a contribuire con i suoi doni alla bellezza e alla vitalità della terra;

– che le crisi attuali sono ‘iniziatiche’, possono condurci a una profonda trasformazione.

La storia che ci ha condotti fin qui è la Storia della Separazione: «il sé separato e a sé stante, in un universo oggettivo che è Altro, popolato da forze impersonali, pezzi generici di materia e altri sé in competizione». Questo si traduce in una mentalità di dominio e di guerra.

Anche al di là della questione del cambiamento climatico, la civiltà industriale nella sua forma attuale provoca gravi danni ovunque. Ma un diverso tipo di civiltà è possibile. Si tratta di sceglierlo.

Dobbiamo recuperare la nostra capacità di ascolto, intorpidita e limitata dalla narrazione dominante, che ai nostri legami con la comunità, le piante, gli animali, la terra e la vita ha sostituito le relazioni generiche mediate dalla tecnologia e dal denaro.

Il cambiamento deve raggiungere il livello del denaro, che è la chiave di volta di un sistema sociale che sta divorando il mondo, un sistema che converte la qualità in quantità, la natura in merce, il suolo in sporcizia, gli alberi in quantità di legname e i valori in valore monetario.

Il fondamento della società moderna è sicuramente la scienza. La scienza può essere un potente strumento. Ciò che deve cambiare è l’impulso che sta dietro la scienza: la manipolazione di un mondo che essa vede come morto, fatto di atomi e vuoto. Quando questa visione cambierà, la scienza si trasformerà in qualcosa di irriconoscibile.

In conclusione, l’autore indica le seguenti priorità:

– Proteggere tutti gli ecosistemi incontaminati che ancora rimangono sul pianeta.

– Rigenerare, ripristinare e curare tutto ciò che è stato danneggiato, in particolare il suolo, l’acqua e le foreste: agricoltura rigenerativa; ripristino dei bacini idrografici; cura delle foreste.

– Smettere di scaricare veleni nel mondo (erbicidi, insetticidi, rifiuti tossici e farmaceutici, pesticidi, antibiotici che attraverso le nostre urine arrivano nell’acqua e nell’ecosistema, ecc.).

– Ridurre l’uso dei combustibili fossili. Un pianeta che ha subìto molti danni ai suoi organi e tessuti non è in grado di resistere al rapido aumento dei gas serra.

– Smilitarizzare la società. Piuttosto che quantificare le risorse e l’energia che la smilitarizzazione libererebbe, l’autore si limita a sottolineare che ci troviamo di fronte a un bivio fondamentale. Guerra o pace? Amore o paura? Dominazione o servizio? Non vedremo una vera guarigione della terra se manterremo il complesso militare-industriale e non abbandoneremo la mentalità del dominio attraverso la forza.

L’autore mette gratuitamente a disposizione tutto il suo lavoro nel suo sito web in varie lingue.

Clima. Una nuova storia può essere scaricato in italiano in pdf, così come una Sintesi del libro, elaborata da Adele Cozzi, la traduttrice del libro.

 

 

 

 

 

[i] I Gas Serra. La CO2 è un gas serra, cioè un gas che ostacola la radiazione del calore dalla terra verso l’esterno del pianeta, imbrigliandolo all’interno dell’atmosfera, come in una serra. Non è il solo a presentare questo fenomeno: anche il vapor d’acqua è un gas serra, e in giro ce n’è tanto (le nuvole …); poi il metano (CH4), e altri ancora. Del metano lo si sapeva da tempo, si parlava del metano che si stava liberando dal permafrost, quello strato gelato di terreno che ricopre ampi territori del nord del pianeta, con un fenomeno detto di feedback (ritorno) positivo, cioè di esasperazione del fenomeno: il calore dell’atmosfera che si sta riscaldando libera il metano, e la quantità liberata intensifica l’effetto serra e quindi il riscaldamento e la liberazione più rapida di altro metano. Lo cito perché ora qualcuno ne ha indicata un’altra origine meno nobile e consistente, prima dimenticata: esso viene prodotto anche nello stomaco degli animali e in particolare, data la loro dieta, in quella degli animali di allevamento, dai bovini e suini alle galline, che sono presenti sul pianeta in quantità enormi. Questo metano ovviamente non permane nello stomaco ma viene “flatulato” all’esterno.  Il fatto è diventato oggi oggetto di aspre contese politico-sociali per la decisione di ridurre la dimensione e il numero degli allevamenti “industriali” con danno di molti grandi allevatori, con conseguenti proteste. Credo che nel prossimo futuro se ne parlerà molto.

[ii] Parlare di se stessi in un articolo tecnico è disdicevole. Chi legge potrebbe pensare che ho voluto accreditarmi grandi doti tecniche e scientifiche che non ho. Il meravigliao consisteva nell’utilizzare le microonde per l’essiccamento del prodotto in una fase critica del processo, in cui si generavano polveri finissime per “sfarinamento” dei granuli umidi da essiccare.  La tecnica tradizionale dei cosiddetti ‘letti fluidi’, dove i granuli venivano mantenuti in sospensione in una corrente di aria calda, non era più adeguata per i nuovi prodotti da poco entrati sulla scena (antibiotici, ormoni e altri), che avevano forte ‘attività’ e quindi erano nocivi per chi ne era a contatto continuo, in primis gli operatori del processo di produzione. Inizialmente si dotarono questi letti fluidi di grandi filtri dell’aria in uscita, che però non erano in grado di trattenere quella frazione di polveri avente dimensione sotto i 10 micron, la cui pericolosità venne sottovalutata. Si passò allora ad effettuare questa fase in apparecchi chiusi con pareti riscaldate dall’esterno mantenendo il prodotto in leggero movimento perché si scambiasse quello a contatto con le pareti calde. Il processo divenne assai più lento e comunque non privo di frazioni polverose, anche se in misura assai ridotta. Erano allora in voga i fornetti casalinghi a microonde che venivano impiegati per riscaldare le vivande, che quasi tutti avevano in casa, e che oggi mi sembrano quasi del tutto abbandonati. L’idea meravigliao fu quella di trasformare gli apparecchi di essiccamento in maxiforni a microonde. Venne però sottovalutato il problema del trasferimento della tecnologia da apparecchiature di piccola dimensione dalla geometria semplice (un parallelepipedo rettangolo), dalle pareti piane in materiali non riflettenti le microonde, ad apparecchiature di grandi dimensioni dalla geometria complessa e dotate di un organo interno rotante, costruite in acciaio inossidabile. Sia il materiale che le forme curve (cilindriche) riflettevano in maniera disordinata le microonde e non le assorbivano. Di conseguenza le temperature interne non erano controllabili con la precisione richiesta e una parte del prodotto risultava “bruciata”. I tre costruttori leader del settore, ammaliati dall’idea, sottovalutarono il problema, fiduciosi di arrivare in qualche modo a risolverlo, e incredibilmente insistettero per anni nel promettere che la soluzione era “a portata di mano”. Chi scrive all’epoca era digiuno di conoscenze specifiche sulle microonde e per avere lumi si rivolse a un esperto di radar navali, fratello di un amico e che era direttore tecnico di una industria fiorentina che all’epoca era all’avanguardia in questo settore. Egli gentilmente venne nella mia officina a vedere un’apparecchiatura in costruzione. Il suo responso fu immediato e mi disse testualmente: “Zanchetta, non ci spenda né una lira né un minuto di tempo. L’applicazione delle microonde non può funzionare”. Se un merito l’ho avuto, e stato quello di sostenere da allora in poi, per un lungo quindicennio, l’isolamento “scientifico” di cui fui circondato e di aver avuto la testardaggine di continuare a cercare una soluzione ragionevole del problema.

[iii] International Journal of Pharmaceutical Engineering and Drug Design.

[iv] Qui, e per una giusta comprensione del seguito, è opportuno conoscere sinteticamente la struttura dell’atmosfera terrestre e dei suoi principali fenomeni. Ne forniamo una descrizione nell’Appendice n. 1.

[v] I modelli ad oggi elaborati per simulare l’andamento climatico sono oltre un centinaio. Quello a cui ci stiamo riferendo è quello definito con l’acronimo CMIP6 GCM, oggi accettato come il più valido e al quale mi riferirò in seguito quando scriverò “il modello”. La sua elaborazione e la sua interpretazione ha fruttato il premio Nobel 2021 per la fisica ai suoi autori, Sycuro Manabe e Klaus Hasselmann (assieme all’italiano Giorgio Parisi, ma a quest’ultimo per altri motivi). Un Premio Nobel dalle ragioni assai dubbie.

[vi] Franco Battaglia, Non esiste alcuna emergenza climatica, p. 99, in Dialoghi sul Clima, Rubbettino ed., 1922.

[vii] Ripetendomi: un elemento di critica di fondo ai modelli climatici è il fatto che ci sono almeno due fattori fondamentali del clima che sono tuttora poco conosciuti. Pertanto non è possibile costruire e inserire nei sottosistemi dei modelli nessuna equazione matematica che li rappresenti adeguatamente.

[viii] Nicola Scafetta, Interpretazioni del cambiamento climatico: dai modelli basati sulla CO2 a quelli basati sulle oscillazioni astronomiche, p. 60, in Dialoghi sul clima, già citato.

[ix] Notare la concordanza con la linea di color nero della fig. 1.

[x] Titolo di un libro del giornalista J. Fourastié che all’epoca ebbe successo.

[xi] In questo periodo si notano due picchi positivi che corrispondono al fenomeno noto come El niño.

[xii] Proxi: «Denominazione dei dati relativi a epoche remote, dedotti indirettamente. La raccolta regolare di dati meteorologici su scala mondiale ha avuto luogo solo a partire dalla seconda metà dell’Ottocento; le condizioni climatiche antecedenti non possono, dunque, essere identificate con dati diretti, ma possono essere valutate a partire da misurazioni ambientali di quantità che sono più o meno direttamente collegate alla situazione climatica locale. […] Questi dati, analizzati simultaneamente e in modo coerente, consentono di creare un’immagine razionale delle variazioni climatiche avvenute lungo particolari momenti della storia della Terra» (da Treccani on line).

[xiii] In questi ultimissimi giorni ho preso visione di un nuovo importante studio in corso sui cicli solari che mette in evidenza la loro complessità, il che rende ancor più dubbia l’ipotesi della costanza del riscaldamento solare assunta nel modello anche se essa ha tenuto conto della nota ciclicità di 11 anni delle macchie solari (How Scientists Are Tackling the Tricky Task of Solar Cycle Prediction – Quanta Magazine di questo mese di settembre 2023).

[xiv] Il vizio italiano di confondere l’America con gli Stati Uniti…

[xv] Battaglia, vedi nota 6, pp. 116-117.

[xvi] A novembre 2011 erano in orbita nell’atmosfera 8.011 satelliti lanciati da un equivalente numero di razzi (attualmente per la precisione essi vengono lanciati a grappoli di molte unità o decine da un unico razzo vettore), ai quali vanno aggiunti gli oltre 3.000 già “deceduti”. Se inizialmente il lancio era dovuto alle Agenzie Spaziali dei pochi paesi più tecnologicamente avanzati, oggi, grazie alla diminuzione dei costi, il loro numero è cresciuto in funzione delle necessità delle telecomunicazioni. Aziende private come SpaceX, OneWeb, Amazon o StarNet-GW prevedono di lanciare fino a 50.000 satelliti, ma ci sono proposte più ambiziose in attesa di approvazione che porterebbero il numero a oltre 100.000. Questo ha creato un problema di “spazzatura spaziale” di una notevole consistenza, causato dagli oltre dodici milioni di detriti in orbita provenienti dai satelliti estinti. Un dato letto alcuni giorni or sono dice che quel giorno, a una certa ora, nel mondo erano in volo contemporaneamente oltre 25.000 aerei a reazione, ognuno dei quali scaricava nell’atmosfera la sua rispettabile dose di gas di scarico.

[xvii] Oggi gli argomenti della Bertell sono portati avanti dalla scienziata austriaca Claudia von Werlhof, da essa nominata erede morale e scientifica. Nel 1917 l’organizzazione Global Research pubblicò un libro curato da questa scienziata che è stato rimesso in circolazione in questi giorni sul web (Global WAR-NING! Geoengineering Is Wrecking Our Planet and Humanity.)

[xviii] «Gli scienziati valutano che una perdita dell’1% dell’ozono nello strato totale dell’ozono avrebbe come conseguenza che una quantità dall’1 al 3 per cento in più di radiazione ultravioletta raggiungerebbe la terra. Questo, a sua volta, farebbe aumentare l’incidenza di cancro alla pelle e potrebbe influire su tutte le forme di vita. Inoltre modificherebbe la distribuzione delle temperature nella stratosfera, con potenziali ripercussioni sul clima a livello globale». Etc. (Bertell, p. 64, dove cita Grolier Multimedia Enciclopedia, agosto 1996.)

[xix] «Il governo canadese nella primavera 1958 spedì nella tundra degli elicotteri su cui si fecero salire i superstiti. Costruirono degli insediamenti per gli Inuit e dissero loro che non sarebbero più potuti ritornare “sul territorio”. […] Il livello di cesio nei corpi degli svedesi che abitavano nell’Artico, a sua volta, era 38 volte più alto di quello presente nei corpi degli svedesi che abitano nel Sud». (Bertell, pp. 52-55.)

[xx] Queste citazioni sono tratte dalle pp. 61 a 65 della Bertell.

[xxi] Da Wikipedia: «La riduzione dell’ozonosfera e il buco dell’ozonosfera sono due fenomeni connessi con la riduzione dell’ozono stratosferico, intendendosi con essi rispettivamente:

– il calo lento e globale dell’ozono stratosferico totale ovvero nell’ozonosfera dai primi anni ottanta in poi;

– il molto più esteso, ma intermittente fenomeno della riduzione dell’ozono delle regioni polari terrestri, quello a cui più propriamente ci si riferisce quando si parla di “buco nell’ozono”, in realtà un assottigliamento marcato dello strato stesso. Lo strato di ozono è uno schermo fondamentale per l’intercettazione di radiazioni letali per la vita sulla Terra, e la sua formazione avviene principalmente nella stratosfera alle più irradiate latitudini tropicali, mentre la circolazione globale tende poi ad accumularlo maggiormente alle alte latitudini e ai poli. Il meccanismo di formazione del buco è diverso dall’assottigliamento alle medie latitudini dello strato di ozono, ma entrambi i fenomeni si basano sul fatto che gli alogeni, principalmente cloro e bromo, catalizzano reazioni ozono-distruttive. I composti responsabili appaiono essere principalmente dovuti all’azione umana».

[xxii]Il balletto delle notizie sul buco dell’ozono:

Il buco dell’ozono sull’Antartide si sta aprendo in anticipo

Ansa – 4 set 2023 · Il buco dell’ozono sull’Antartide si sta aprendo in anticipo rispetto agli ultimi 43 anni, probabil­mente per colpa dell’eruzione del vulcano Hunga-Tonga avvenuta fra dicembre 2021 e gennaio 2022, ma i valori rilevati nell’ultima settimana mostrano un’evoluzione in linea con quelli medi.

Il buco dell’ozono ora è più grande dell’Antartide

Ansa – 16 set 2021 · Il buco dell’ozono quest’anno ha raggiunto un’estensione superiore a quella dell’Antartide.

Il buco dell’ozono sull’Antartide continua a ridursi

Ansa – 31 ott 2022

Il buco dell’ozono si chiuderà nel 2040

Ansa – 10 gen 2023 · La perdita dello strato di ozono, che ha rischiato di esporre le persone ai dannosi raggi ultravioletti del sole, è sulla buona strada per essere completamente recuperata entro il 2040.

Si è chiuso il buco dell’ozono record in Antartide

Ansa – 29 dic 2020 · Picco a 24,8 milioni di chilometri quadrati. Il buco dell’ozono antartico da record del 2020 si è chiuso alla fine di dicembre.

[xxiii] Il riscaldamento climatico e lo scontro tra Occidente e il resto del mondo, 6 giu 2023.

[xxiv]  Mi pace qui riportare un brano di uno scritto del noto sociologo Bruno Latour: «Ed eccoli qua, colti da una nuova brama di dominio totale su una natura sempre concepita come recalcitrante e selvaggia. In questo grande delirio che chiamiamo umilmente geoingegneria, è la Terra intera che intendono abbracciare. Per guarire dagli incubi del passato, propongono di aumentare ulteriormente la dose di megalomania necessaria alla sopravvivenza in questa clinica per pazienti dai nervi fragili che è divenuto il mondo» (Bruno Latour, La sfida di Gaia).

[xxv] Limes, Il clima dell’energia, n. 6 del 2007.

[xxvi] Environmental Modification Ban Faithfully Observed, States Parties Declare, UN Chronicle, luglio 1984, vol. 21, p. 27.

[xxvii] Vedi la nota 17.

[xxviii] Dr. Mercola, “L’ingegneria climatica è reale?”, 18 luglio 2023.

[xxix] Questo progetto. che ha a che fare con le famose “scie bianche” in cielo, viene giustificato anche con il miglioramento delle comunicazioni radio, ma non si deve dimenticare l’effetto negativo esercitato sulle coltivazioni una volta che questo particolato ricade a terra per azione delle piogge.

[xxx]  Ha creato molto scalpore nel mondo scientifico e fra gli esperti di clima la notizia che nel pianeta le foglie diventano più spesse a causa dell’aumento di concentrazione di CO2, aggravando di conseguenza i cambiamenti climatici (vedi https://www.lifegate.it/persone/news/foglie-diventano-spesse-co2-aggravando-cambiamenti-climatici).

[xxxi]  Vedi l’articolo citato nella nota 28.

[xxxii] Congressionally Mandated Research Plan and an Initial Research Governance Framework Related to Solar Radiation Modification June 2023

[xxxiii] Abya Yala è il nome con cui gli indigeni amano chiamare l’America centro-meridionale. I tre vertici hanno avuto luogo in Ecuador nel 2003, in Guatemala nel 2006 e in Perù nel 2009.

[xxxiv] L’amico Giovanni Pandolfini, contadino verace sulle colline fiorentine, è innamorato di un altro libro di Jean Giono, che sarebbe di estrema attualità: Lettera ai contadini sulla povertà e la pace.

[xxxv] Alberi in cambio di emissioni: i conti non tornano (ilmanifesto.it, 12 set 2023).

[xxxvi] Bartra A., El hombre de hierro. Límites sociales y naturales del capital, Universidad Autonoma de la Ciudad de Mexico, 2008.

[xxxvii] F. Piperno, Climatologia e politica: In pericolo il mondo o la Terra?

[xxxviii] Eisenstein Charles, Clima. Una nuova storia, dal cap. 3, “Lo spettro climatico e oltre”. Di questo libro, sicuramente importante, nell’appendice n. 3 riportiamo una stringatissima sintesi dei contenuti.

[xxxix] Ivan Illich e David Cayley, Una fiamma nel buio, Elèuthera, 2000.

[xl] Illich si riferisce a quanto ha detto poco prima a proposito dell’immagine della terra proposta dall’ipotesi Gaia, l’immagine astratta di un sistema cibernetico invece che di «qualcosa che richiede tutti i tuoi sensi per poterla afferrare, per poterla sentire».

[xli] ibidem, p. 251.

[xlii] In questa descrizione dell’atmosfera abbiamo preso per guida un paragrafo del libro Pianeta Terra. L’ultima arma di guerra, della scienziata canadese Rosalie Bertell (Asterios, 2018, pp. 40-47), al quale ci riferiremo spesso nelle pagine seguenti.

[xliii] Gli aerei militari invece volano prevalentemente a una altezza di 15 km, nella stratosfera.

[xliv] Miscelato in piccole dosi controllate con l’ossigeno, l’ozono può avere effetti benefici sull’organismo esercitando un’azione antidolorifica, antinfiammatoria, antibatterica e rivitalizzante dei tessuti (ozonoterapia).

[xlv] Nota la Bertell: «L’elettrojet […] è una fonte di energia elettrica che supera di gran lunga tutto ciò che si trova sulla Terra». Che non venga la tentazione di approvvigionarsene!