Investimenti in impianti energetici a carbone: un rapporto invita alla desistenza

Gli investitori in impianti energetici alimentati a carbone rischiano di sprecare centinaia di miliardi di sterline, visto che le energie rinnovabili sono oramai più economiche delle nuove centrali a carbone in ogni parte del mondo: questa l’indicazione che emerge perentoria nell’ultimo rapporto del think tank Carbon Tracker.

Una indicazione estesa anche hai principali mercati degli impianti a carbone come Stati Uniti, Europa, Cina, India e Australia, dove il costo dell’energia prodotta da nuove centrali eoliche o solari rispetto è più competitiva rispetto alle nuove centrali a carbone.

Esemplificativo il caso del Regno Unito dove ben l’82% dell’energia elettrica prodotta dai 12 gigawatt ancora in esercizio del parco termoelettrico a carbone del Regno Unito ha un costo superiore rispetto alle nuove energie rinnovabili, ha affermato Carbon Tracker.

Nel Regno Unito, la congiuntura dei prezzi del mercato del carbonio, un calo della domanda e sussidi convogliati alle energie rinnovabili stanno spingendo alla graduale alienazione degli impianti a carbone prima della data di chiusura degli impianti, recentemente spostata nell’ottobre 2024.

In tutto il mondo, circa il 60 percento delle centrali a carbone esistenti sta produce energia elettrica ad un costo superiore rispetto al costo dell’energia prodotta dai nuovi impianti ad energie rinnovabili.

Carbon Tracker sta svolgendo una forte azione di sollecitazione verso, governi e investitori per annullare la ancora grande quantità di progetti di impianti a carbone annunciati, autorizzati o in costruzione in tutto il mondo, con uno spreco di 638 miliardi di dollari in investimenti di capitale.

Nonostante il mercato stia guidando la transizione energetica a basse emissioni di carbonio, molti governi sembrano non ascoltare.

Ha davvero un grande senso dal punto di vista economico per i governi cancellare immediatamente i  nuovi progetti  basati sul carbone.

Sul piano poi della limitazione del riscaldamento globale a 1,5 ° C, per evitare i devastanti impatti dei cambiamenti climatici, l’uso globale del carbone per la produzione di energia elettrica dovrà diminuire dell’80% dal 2010 al 2030.

Sono quasi 500 GW di nuova potenza installata, quelli degli impianti a carbone pianificati o in costruzione nel mondo, ma Carbon Tracker mette in guardia governi e investitori sul fatto che potrebbero non recuperare mai gli investimenti che si accingono a  fare. Infatti  il progressivo calo dei costi di energia eolica e solare contestualizzato alle sempre più stringenti normative esistenti sull’inquinamento, elemento di esternalità con ingenti risvolti on termini di costi sanitari fornisce un nuovo quadro nel quale il carbone non è più la forma di energia più economica in tutti i principali mercati mondiali.

In ambito UE con alte quotazioni sul mercato del carbonio (ETS) ed anni di forti investimenti in energie rinnovabili seppure con connotazioni differenti tra i diversi stati, con ancora paesi fortemente dipendenti dal carbone come Polonia e Republlica Ceca, con quasi la totalità della capacità produttiva da carbone, pari al 96%, che presenta un costo dell’energia più elevato rispetto alle nuove rinnovabili.

Anche in  Cina, paese che ospita metà della produzione di energia elettrica da carbone mondiale, ben  sette impianti su dieci attualmente in esercizio, presentano un costo complessivo del kWh più alto rispetto alla costruzione di nuovi parchi eolici e solari.

Nel rapporto si sottolinea come la Cina, la cui economia è stata duramente provata dal coronavirus, ha una ragione in più per evitare investimenti alla costosa produzione energetica da carbone, visto che il paese stava pianificando l’approvazione di nuove centrali a carbone. Carbon Tracker ha esortato la Cina a distribuire il suo capitale di stimolo “in modo efficiente evitando di investire in energia da carbone che è economicamente ridondante e disastrosa per l’ambiente”.

Link sito Carbon Tracker

Sauro Secci

Pubblicato in Fonti Energetiche, Impatto Ambientale | Contrassegnato , , , | Lascia un commento

Incendi-temporali-fulminazioni-incendi: il triste triangolo vizioso della torrida estate australiana

I cambiamenti climatici stanno creando nuove situazioni estreme anche nella meteorologia convenzionale, con l’Australia scenario, in questi giorno di estate australe, di scene apocalittiche caratterizzate da incendi estremi, molti dei quali generati proprio dalle fulminazioni dei temporali attraverso la versione “piro” dei classici “cumulonembi” alla base dei temporali. (fonte immagine di copertina: Bureau of Meteorology, Victoria).

Causa di molti degli incendi che da settimane stanno dilaniando il vastissimo territorio australiano è costituita proprio dalla formazione di piro-cumulonembi, autentiche tempeste generate da fumo e calore in atmosfera, capaci di innescare così un perverso e micidiale circolo vizioso meteorologico.

Ma vediamo di capire da cosa sono caratterizzate queste nuove formazioni nuvolose, altra nuova dimensione fenomenologica dei cambiamenti climatici in atto. In sostanza, secondo il Bureau of Meteorology in Victoria, proprio gli incendi sarebbero alla base della formazione dei piro-cumulonembi, addensamenti nuvolosi capaci di provocare violenti temporali come ben documentano le immagini del video in calce all’articolo. Si tratta in sostanza di tempeste “indotte” le quali, invece di riuscire a domare le fiamme, riescono al contrario ad alimentarle e consolidarle attraverso fulmini e raffiche di vento, provocando la aerodispersione a lunga gittata di tizzoni ardenti che aggiungono danno al danno.

Si tratta di un fenomeno visibile anche da satellite come documentalo nella immagine seguente.

vedi anche l’animazione disponibile nel profilo twitter del Bureau of Meteorology dello stato federale del Victoria

Quando gli incendi hanno estensioni molto grandi, i moti ascensionali di fumo e aria calda possono interagire con l’atmosfera, alterandone l’equilibrio in maniera imprevedibile. In sostanza aria e vapore si raffreddano salendo di quota, creando  una nube molto instabile a sviluppo, capace di diffondere le ceneri ardenti su aree molto vaste, sparandole sino alla stratosfera, da 10 a 50 km dal suolo.

Lo scontro che si verifica con l’aria relativamente calda fuori dalla zona interessata dall’incendio è in grado di generare fulmini che possono innescare una perversa reazione a catena generando nuovi roghi, giungendo in condizioni estreme di forti venti ad essere talmente intensi da causare vortici di fuoco, definiti “firenado”, colonne di fuoco capaci di propagarsi come mini-tornado.

Un piro-cumulonembo si caratterizza dal classico cumulonembo tipico delle giornate calde estive per il fatto che le correnti ascensionali non sono formate dal calore irradiato dal suolo ma da quello sprigionato dalle fiamme. Sono proprio gli scienziati a sostenere come i piro-cumulonembi sarebbero in aumento a causa dei cambiamenti climatici e del riscaldamento globale, con le alte temperature e la siccità che rappresentano i presupposti ideali per la propagazione di incendi sempre più intensi e vasti, con grandi pennacchi vigorosi di fumo, ceneri e vapore come immense ciminiere naturali. 

A dare la percezione della dimensione apocalittica degli incendi di questo inizio estate australiana un grafico comparativo delle superfici bruciate nei maggiori incendi recenti avvenuti nel pianeta, con gli eventi australiani che hanno doppiato per superficie bruciata quelli dell’Amazzonia, elaborato dalla Russian Federal Forestry Agency diffusi attraverso BBC e New York Times

Si tratta di un cataclisma che ha risvolti allucinanti per la vastissima biodiversità dell’Australia, con milioni e milioni di creature carbonizzate in queste ultime apocalittiche settimane. La foto seguente mostra, in tutta la sua crudezza, un giovane canguro carbonizzato mentre è alla disperata ricerca di una via di fuga dai roghi devastanti.

Un fatto che fa oltremodo riflettere quello che l’Australia è tra i paesi che hanno sancito l’ennesimo fallimento al COP25 di Madrid, proprio mentre sta attraversando la sua ennesima estate rovente, addirittura in netto anticipo rispetto al picco dell’estate australe. Nel video seguente in time-lapse si può osservare chiaramente la formazione accelerata di un piro-cumulonembo comprensivo delle sue conseguenze.

A seguire un breve ma significativo filmato che esplica come meglio non potrebbe l’evoluzione del perverso triangolo incendio-temporale-fulminazione-incendio.

Sauro Secci 

Pubblicato in Senza categoria | Lascia un commento

Inquinamento da PFAS: non solo Veneto

Le sostanze alchiliche perfluorifluorurate, raggruppate nell’acronimo di PFAS vedono in Italia un grande impatto ambientale in un triangolo geografico collocato tra le provincie di Padova, Vicenza e Verona con baricentro intorno alla Miteni di Trissino (VI), conosciuta anche come la fabbrica dei veleni, che ha chiuso i suoi battenti solo un anno fa, con pesante compromissione della falda acquifera e quindi una gravissima emergenza sanitaria. (immagine copertina: esempio struttura molecolare di un composto PFAS – Fonte: 3M- Pfasact)

Ad evidenziare come il problema dei PFAS non sia esclusivamente veneto, ma assuma contorni ben più distribuiti nell’intera matrice geografica della UE, una relazione pubblicata dall’Agenzia europea dell’ambiente (EEA), dal titolo “Emerging chemical risks in Europe — PFAS”, fornisce una panoramica sui rischi riconosciuti o potenziali per la salute umana e degli ecosistemi, legati alla famiglia delle sostanze alchiliche perfluorifluorurate, estremamente tossiche e persistenti, definendo cause e pericoli per la salute umana.

Una famiglia, quella dei PFAS (acidi perfluoroacrilici) alla base di molti prodotti di ampia utilizzazione negli ambiti industriale, cosmetico e tessile, costituiti da catene alchiliche idrofobiche fluorurate, corrispondenti ad  acidi molto forti caratterizzati da una struttura chimica che li rende estremamente stabili termicamente, rendendoli così anche resistenti ai principali processi naturali di degradazione. Per questa loro caratteristica i PFAS vengono usati, per esempio per padelle e casseruole da cucina, per aumentare la repellenza all’olio e all’acqua, per ridurre la tensione superficiale e per aumentare la resistenza alle alte temperature o ad altri prodotti chimici.

Risultano attualmente sul mercato oltre 4.700 diversi tipi di composti della famiglia PFAS, con quelli più diffusi corrispondenti al PFOS (perfluorottanosulfonato) e il PFOA (acido perfluoroottanoico), con quest’ultimo caratterizzato da una persistenza negli ecosistemi e nell’organismo umano di oltre 5 anni.

Albero dei PFAS (Fonte EPA)

In assenza di una specifica mappatura dei siti potenzialmente inquinati da PFAS a livello UE, la relazione EEA rileva come siano state al momento le attività di monitoraggio effettuate nei singoli paesi a rilevare elevate concentrazioni in tutta Europa. In Italia, un approfondito studio del CNR-IRSA del 2013 ha evidenziato la grande emergenza a cavallo tra le provincie di Padova Vicenza e Verona, con elevate concentrazioni di tali sostanze, ed il coinvolgimento anche di altre aree del paese intorno alle principali aste fluviali come Po, Tevere, Adige, Arno.

Caratterizzazione presenza PFAS acque potabili area veneta (Fonte CNR-IRSA)

Emblematica in questo senso la situazione del Valdarno Inferiore, tra le provincie di Firenze Prato e Pisa, dove l’effetto combinato dei distretti tessile (prato) e conciario (Santa Croce), fa crescere esponenzialmente la presenza di PFAS sia nelle acque di superficie che nelle falde acquifere, come mostra in maniera eloquente il grafico seguente, tratto proprio dallo studio del CNR (Polesello).

Caratterizzazione presenza PFAS acque potabili Valdarno Inferiore (Fonte CNR-IRSA – Polesello)

L’effetto più impattante della produzione e dell’utilizzo dei PFAS in questi anni è stato la contaminazione delle acque potabili in diverse aree europee. L’attività di biomonitoraggio umano svolta ha portato a riscontrare concentrazioni variabili anche nel sangue dei cittadini. I fattori principali di esposizione per l’organismo umano oltre all’acqua potabile, risultano essere gli imballaggi per alimenti, le creme e i cosmetici, i tessuti ed altri prodotti di consumo su cui vengono applicate tali sostanze.

A livello epidemiologico, pur con gli studi ancora in evoluzione, relativamente agli effetti sulla salute umana si parla di immunodeficienza, alterazioni del sistema endocrino, insorgenza di tumori nei confronti di reni e testicoli, sviluppo di malattie della tiroide.

Fonte: relazione EEA “Emerging chemical risks in Europe — PFAS”

Ingenti poi le stime dei costi sanitari e di quelli salatissimi legati alle bonifiche ambientali stimati a livello europeo da parte EEA, in decine di miliardi di euro all’anno e sulla base delle quali la stessa Agenzia indica l’adozione di misure precauzionali per limitare l’uso delle sostanze contaminanti e la loro progressiva, graduale sostituzione con sostanze chimiche sicure, prioritarie e fondamentali per limitare l’inquinamento dell’intero ecosistema.

Sul piano delle azioni infine, la Commissione europea ha predisposto una strategia sulla sostenibilità dei composti chimici che, come si legge testualmente nella comunicazione “aiuterà sia a proteggere meglio i cittadini e l’ambiente da sostanze chimiche pericolose sia a incoraggiare l’innovazione per lo sviluppo di alternative sicure e sostenibiliIl quadro normativo dovrà rapidamente riflettere le prove scientifiche sul rischio rappresentato dagli interferenti endocrini, dalle sostanze chimiche pericolose nei prodotti, comprese le importazioni, dagli effetti combinati di diverse sostanze chimiche e da sostanze chimiche molto persistenti”.

Link relazione “Emerging chemical risks in Europe — PFAS” di EEA

Sauro Secci

Pubblicato in Impatto Ambientale | Contrassegnato , , , , | Lascia un commento

«L’Ecofuturo magazine » riparte: il bruco è diventato farfalla

L’Ecofuturo magazine » riparte. Amici, dopo le difficoltà iniziali che il nostro nuovo progetto editoriale aveva riscontrato in edicola, sembrava impossibile proseguirne la realizzazione. Il sistema distributivo delle edicole si è mostrato infatti inadeguato per consentire a una nuova rivista di nicchia di un piccolo editore la sostenibilità necessaria. Per raggiungere tutte le edicole italiane è necessario stampare oltre 25 mila copie, con tutti i costi fissi – stampa, distribuzione e resi – che ciò comporta. Si tratta di economie che non consentono alle nuove iniziative di decollare.

Ma convinti della qualità del prodotto e della necessità di diffonderne i contenuti e la prospettiva, noi non ci siamo arresi e con mesi di impegno abbiamo ripensato completamente -insieme agli amici di EcoFuturo- il modello distributivo della rivista, la quale d’ora in avanti uscirà in formato digitale interattivo e sarà distribuita gratuitamente attraverso una vasta rete di contatti sul web che ci permette di raggiungere oltre 600mila persone attraverso newsletter e diversi milioni fra siti e social network.

Il passaggio non è stato certo facile, ha richiesto una cessione della testata (dalla editrice C&C, che ringraziamo ancora per la fiducia iniziale, ma che poi non si è mostrata interessata a questa nuova sfida sul web, alla ECOnnection che invece ha creduto nell’enorme potenzialità di questa conversione), ha richiesto inoltre un lungo iter burocratico per le autorizzazioni e un adeguamento tecnico davvero non banale della rivista al nuovo formato digitale interattivo.

Ma dopo lunghi mesi di traversata del deserto ora siamo finalmente pronti a ripartire, con rinnovato entusiasmo e con grande fiducia che questa nuova modalità distributiva possa raggiungere risultati molto più importanti di quanto le edicole e il cartaceo avrebbero mai potuto permetterci.

Eccovi dunque il secondo numero della rivista « L’ECOFUTURO MAGAZINE”, che d’ora in poi uscirà in questo formato digitale interattivo, sempre con cadenza bimestrale:

All’interno della nuova rivista online anche la mia rubrica “Musica per l’Ambiente – Parole in Musica”

Link lancio rivista on line (sito Ecofuturo.eu)

Sauro Secci

Pubblicato in Ambiente | Lascia un commento

Transizione energetica: la fotosintesi clorofilliana fa scuola ancora una volta

La fotosintesi clorofilliana fa ancora una volta scuola nel grande contesto delle tecnologie a supporto della transizione energetica, essendo alla base per esempio del fotovoltaico organico nell’ambito del quale nascono sempre nuove linee di ricerca (vedi post “Fotovoltaico organico ed economia circolare..“). Una nuova linea di ricerca ispirata alla fotosintesi è quella Cambridge University, la quale ha messo a punto una “foglia artificiale” capace di produrre syngas.

E’ stato presentato in questi giorni un nuovo dispositivo capace di produrre gas di sintesi rinnovabile. Si tratta di una speciale foglia artificiale capace di agevolare la produzione dei cosiddetti “carburanti solari”, messa a punto da un team di ricercatori Dipartimento di Chimica alla Cambridge University, coordinati dal Professor Erwin Reisner. E’ stato lo stesso coordinatore del progetto, professor Reisner a descrivere a grandi linee lo stesso commentando: “Potresti non aver mai sentito parlare del syngas, ma ogni giorno consumi prodotti che sono stati ottenuti utilizzandolo. Essere in grado di produrlo in modo sostenibile sarebbe un passo fondamentale nella chiusura del ciclo globale del carbonio e nella creazione di un’industria chimica e dei combustibili sostenibile. 

Una miscele di gas composta principalmente da idrogeno e monossido di carbonio di origine non “naturale”, il siyngas viene utilizzato per una vasta gamma di prodotti, come carburanti, prodotti farmaceutici, materie plastiche e fertilizzanti. 

Ma vi è un elemento particolare che contraddistingue la “foglia artificiale” messa a punto dalla Università britannica, la quale, a differenza degli attuali metodi produttivi industriali del gas, basati su reforming, fermentazione o processi autotermici,   è in grado di generare il combustibile con il solo utilizzo della luce solare e dell’anidride carbonica, il cui funzionamento ricalca proprio il processo naturale di fotosintesi, con il quale le piante utilizzano l’energia solare per trasformare l’anidride carbonica in composti di sostegno.

Analizzando la configurazione di questa “foglia artificiale”, la stessa è basata su di una architettura semplice e lineare, costituita da due assorbitori di fotoni (paragonabili alle molecole delle piante preposte alla raccolta della luce), combinati con un catalizzatore a base di cobalto. Alla immersione nell’acqua, uno dei due elementi produce ossigeno, mentre l’altro riduce l’anidride carbonica e l’acqua in monossido di carbonio e idrogeno, dando origine alla miscela di syngas. Un’altra significativa scoperta del team di ricerca britannico e costituito dal fatto che gli assorbitori di fotoni messi a punto riescono a funzionare anche con bassi livelli di luce solare, che caratterizzano giornate piovose o comunque con copertura nuvolosa, che rende la tecnologia adattabile non solo ai paesi ad alta insolazione ma ud una gamma molto ampia di latitudini e non solo alle stagioni calde, rendendolo utilizzabile dall’alba al tramonto, in qualsiasi parte del mondo.

I prossimi obiettivi della road map per il team di ricerca britannico sono quelli di poter utilizzare la tecnologia messa a punto per produrre direttamente un’alternativa di carburante liquido sostenibile alla benzina.

Link video di espplicativo della nuova tecnologia (sito “The Indipendent”)

Link sito Cambridge University

Sauro Secci

Pubblicato in Fonti Rinnovabili, Fonti Rinnovabili, Efficienza Energetica, Ambiente | Contrassegnato , , | Lascia un commento

Stoccaggio criogenico: dopo l’automotive la tecnologia del GNL si apre allo storage

Dopo il graduale e fondamentale spazio che si sta creando nell’ambito della minimizzazione dell’impatto ambientale nei trasporti pesanti, la tecnologia del GNL (Gas Naturale Liquefatto) e della criogenizzazione si sta facendo strada anche nel sempre più articolato ambito delle tecnologie di accumulo, con l’inaugurazione, in Gran Bretagna, del primo impianto di stoccaggio criogenico su larga scala, fondamentale per dare stabilità alla rete elettrica nella transizione verso le energie rinnovabili (fonte foto copertina: Highview Power).

Si tratta di un sistema che si configura in una più ampia strategia della società Highview Power per sviluppare avanzate criobatterie in Gran Bretagna, Spagna, Medio Oriente e Sudafrica che si configura nella famiglia dei LAES (Liquid Air Energy Storage) e di cui avevo già parlato oltre un anno fa in questo post e che oggi arriva alla consacrazione del mercato nei nuovi scenari energetici.

Ed è proprio la Gran Bretagna ad ospitare il suo primo impianto di stoccaggio criogenico su larga scala, precedendo molti altri paesi europei alla tecnologia dell’aria “liquida” come opzione d’energy storage, candidandosi così come paese modello delle nuove “criobatterie”. Si tratta infatti di un impianto dalla significativa taglia da 50 MW/250 MWh, che una volta a regime sarà il più grande di questo tipo in Europa, messo a punto dalla londinese Highview Power. Cosa non meno significativa è costituita dal fatto che il nuovo impianto è nato dalle ceneri di una vecchia centrale termoelettrica dismessa, nel nord dell’Inghilterra, dove grandi serbatoi di metallo completamente isolati conservano aria liquida in miscele di ossigeno e azoto raffreddate a meno 196°C attraverso l’uso di energia elettricità rinnovabile.

Il processo alla base dello stoccaggio criogenico si basa su una modalità molto semplice: in sostanza quando l’offerta di energia elettrica supera la domanda della rete, il surplus viene impiegato per comprimere e raffreddare aria fino alla sua liquefazioneL’aria liquida ottenuta è mantenuta in questo stato fino al momento del rialzo della domanda, quando viene ritrasformata in gas attraverso, per esempio, calore di scarto di bassa qualità, con il conseguente aumento di volume e di pressione che viene utilizzato per l’azionamento di una turbina elettrica.

Schematizzazione del processo
Sottosistemi del processo

Come dicevamo in premessa, il sistema è basato sulla collaudata tecnologia impiegata per la produzione di GNL, utilizzata in piena sicurezza in molti processi industriali dal momento che non richiede elementi o componenti particolarmente costosi per la produzione, consentendo sopratutto l’accumulo energetico per alcune settimane. Pur essendoci in corso altre sperimentazioni in questo ambito, il nuovo impianto di Highview Power si caratterizza per essere il primo collegato in rete, potendo aiutare alla stabilità la National Grid, gestendo quote di rinnovabili non programmabili come eolico e fotovoltaico ed incrementando la flessibilità della infrastruttura di rete elettrica. Inoltre, come spiega la stessa Highview Power, il sistema sarà in grado di fornire servizi ausiliari come la gestione della frequenza e dei vincoli di rete.

Sull’inaugurazione del nuovo impianto il commento di Javier Cavada, CEO di Highview Power, che precisa che “Sempre più centrali elettriche verranno ritirate dal mercato: noi stiamo offrendo una soluzione che può utilizzare la stessa infrastruttura energetica e le stesse connessioni di rete per dare nuova vita a questi siti. Secondo Cavada la criobatteria da 200 MW sarebbe in grado di immagazzinare energia elettrica ad un costo di 110 sterline per MWh, un prezzo che collocherebbe tale tecnologia di accumulo energetico tra le più economiche. A marzo scorso l’azienda ha resi noti i prossimi passaggi che prevedono un piano di collaborazione con lo specialista spagnolo TSK, con il quale realizzeranno sistemi di stoccaggio criogenico su scala gigawatt in Spagna, Medio Oriente e Sudafrica.

A seguire un interessante video di Highview Power, che ci introduce alla nuova tecnologia di accumulo criogenica

animazione del processo

Sauro Secci 

Pubblicato in Energy Storage | Contrassegnato , , | Lascia un commento

Navi ambientalizzate con scrubber a ciclo aperto: uno “sporco trucco”

A più riprese dalle pagine di questo sito abbiamo denunciato gli abissali ritardi che sta registrando il comparto marittimo nell’ambito delle emissioni atmosferiche, ancora legate ad arcaici combustibili, sottoprodotti della raffinazione. E’ uscito al riguardo un interessante articolo sul sito dell’Independent, che rivela come le grandi aziende impegnate nel trasporto marittimo e le compagnie di navigazione stiano attivando significativi investimenti di miliardi di dollari per consentire alle proprie navi il rispetto dei nuovi e più stringenti standard imposti da IMO, l’Organizzazione Marittima Internazionale, nel rispetto dei regolamenti che entreranno in vigore dal 1° gennaio.

Come è noto agli addetti ai lavori, pur essendo già disponibili nuovi natanti con combustibili decisamente più puliti e sostenibili come il GNL (Gas Naturale Liquefatto), sulle navi esistenti si stanno installando dispositivi di abbattimenti degli inquinanti nei fumi come lo zolfo prima della loro emissione in atmosfera, che però, “aggirano” la nuova legislazione scaricando in mare il materiale raccolto nell’impianto di abbattimento, spostando il problema dalla matrice atmosferica a quella dell’inquinamento marino e quindi delle acque. Si tratta di dispositivi conosciuti anche come scrubber a circuito aperto, che catturano cioè lo zolfo estratto dai fumi dello scarico dei motori delle navi prima che entri nell’aria, ma con lo zolfo raccolto che non viene sequestrato e immagazzinato da qualche parte bensì espulso nella parte inferiore della nave, cioè l’acqua, incrementando così le concentrazioni degli inquinanti marini, i quali potrebbero avere effetti determinanti anche in termini di ulteriore acidificazione su tutti i complessi ecosistemi.

Secondo l’articolo di Indipendent, sarebbero già 3756 le navi equipaggiate con tale tipologia di dispositivi la DNV GL, uno dei più grandi certificatori marittimi al mondo. Di contro a una tale tipologia di sistemi esiste un dispositivo simile, denominato scrubber a circuito chiuso, il quale invece di espellere gli inquinanti nell’acqua, li trattiene immagazzinandoli in appositi serbatoi affinché possono essere avviati ad appositi impianti di smaltimento una volta giunti in porto, con un ovvio costo di smaltimento per i gestori delle navi. Purtroppo però sarebbero solo poche decine le navi che avrebbero installato la tipologia di scrubber a circuito chiuso, per gli evidenti maggiori costi legati, come dicevamo, allo smaltimento. 

In particolare quindi, le navi che utilizzeranno lo scrubber incriminato “a circuito aperto” saranno capaci di emettere 45 tonnellate di acqua di lavaggio contaminata, contenente anche agenti cancerogeni come IPA (idrocarburi policiclici aromatici) e metalli pesanti, per ogni tonnellata di combustibile bruciato.

Link articolo Indipendent 

Sauro Secci 

Pubblicato in Impatto Ambientale | Contrassegnato , , , | Lascia un commento

Teleriscaldamento in Italia: avanti a piccoli passi con il 2% della domanda

Una delle forme più interessanti di gestione della energia termica condivisa anche per i costi di gestione davvero convenienti che offre al cliente finale è indubbiamente quella del teleriscaldamento, che oltre a togliere dalle mura domestiche inquilini scomodi come caldaie o dispositivi in pressione, risulta progressivamente sempre più legata alle fonti rinnovabili come le biomasse legnose e la geotermia a bassa entalpia.

A fare il punto sulla diffusione di questa forma di risposta alle esigenze termiche degli edifici, il primo Rapporto 2019 del GSE che rileva 300 impianti diffusi in 240 territori comunali, con una massiccia concentrazione nel Nord Italia, con una estensione complessiva delle reti di 4.600 km.

La prima edizione del rapporto GSE, dal titolo “Teleriscaldamento e teleraffrescamento in Italia”, scaricabile in calce al post, il GSE fa una analisi puntuale sulle caratteristiche e sulla diffusione dei sistemi di teleriscaldamento (TLR) e teleraffrescamento in esercizio sull’intero territorio nazionale alla fine del 2017, con approfondimenti dedicati sia alle peculiarità delle diverse tipologie impiantistiche e di rete sia alle volumetrie servite.

Si tratta di circa 300 sistemi di TLR in esercizio in Italia nell’ambito di 240 territori comunali (prevalentemente collocati nelle regioni settentrionali) con una estensione complessiva delle reti di 4.600 km ed oltre 9 GW di potenza installata.

Fonte: Primo Rapporto GSE  – “Teleriscaldamento e teleraffrescamento in Italia”

Prendendo in considerazione il solo settore residenziale, il TLR è in grado di soddisfare oggi circa il 2% della domanda complessiva di prodotti energetici per riscaldamento e per la produzione di acqua calda sanitaria del Italia.

Nonostante la maggior parte degli impianti a servizio delle reti è alimentata prevalentemente a metano, fonte che potrà comunque progressivamente essere sostenuta dalla crescente produzione di biometano per l’84% delle realtà, il restante 16% delle stesse è alimentato da rinnovabili, in particolare biomasse e geotermia e rifiuti.

L’incidenza degli impianti alimentati da rinnovabili decresce gradualmente alla crescita della taglia degli impianti. Nel 2017 l’energia complessivamente immessa nelle reti è stata pari a circa 11,3 TWh termici (circa 970 ktep), di cui il 64% prodotto da gas naturale, il 25% da fonti rinnovabili, il restante 11% dalle altre fonti fossili.

Una dinamica interessante da rilevare è costituita dal fenomeno che ad affiancare le ancora prevalenti reti di teleriscaldamento, si stanno progressivamente affiancando le reti di teleraffrescamento, sempre associate a quelle di teleriscaldamento. Si tratta di sistemi di erogazione del fresco effettuata attraverso una rete di distribuzione dedicata o ad acqua refrigerata oppure attraverso gruppi ad assorbimento, installati presso le utenze e alimentati dalla rete di teleriscaldamento. Sono stati censite 32 reti di teleraffrescamento, per un’estensione di 33,6 km ed una volumetria raffrescata di 8,9 milioni di metri cubi. Si tratta di sistemi concentrati quasi esclusivamente in Lombardia ed Emilia Romagna.

Un altra importante rilevazione è costituita dal fatto che il 73% dei sistemi di teleriscaldamento e il 69% dei sistemi di teleraffrescamento in esercizio in Italia sono efficienti ai sensi della definizione stabilita dall’articolo 2 del Dlgs 102/2014, il quale ha recepito la Direttiva 2012/27/CE. In particolare, per essere classificato come efficiente, il sistema di teleriscaldamento deve utilizzare, in alternativa, almeno:

  • il 50% di energia derivante da fonti rinnovabili;
  • il 50% di calore di scarto;
  • il 75% di calore cogenerato;
  • il 50% di una combinazione delle precedenti.

Scarica il Primo Rapporto “Teleriscaldamento e teleraffrescamento in Italia” (sito GSE)

Sauro Secci   

Pubblicato in Senza categoria | Lascia un commento

Atmosfera in Italia: più limpida di 40 anni fa nonostante un cammino lunghissimo da fare

Chi come me ha oltrepassato i sessanta è consapevole degli enormi passi avanti fatti nell’ambito delle giornate con inversione termica la suolo, meglio conosciute come giornate di nebbia, quelle giornate nelle quali cioè, in assenza di vento e quindi con stagnazione atmosferica, la temperatura dell’aria invece di diminuire con la quota in prossimità del suolo, va ad aumentare, ostacolando così la normale azione di diluizione e di rimescolamento dell’aria e quindi anche degli inquinanti presenti.    

Sono nato in una valle interna della Toscana, proprio all’interno di un ex bacino minerario e ricordo bene quando fanciullo, agli inizi degli anni ’60, dopo giorni di nebbia fittissima (a fatica ci vedevamo i piedi) i miei genitori la domenica mi portavano a piedi nelle vicine colline per permettermi la visione della luce solare dopo giorni di buio.

Pur tra enormi difficoltà la nascita oltre 50 anni fa della legislazione ambientale, con particolare riferimento a quella atmosferica non è stata vana, nonostante gli enormi progressi ancora da fare per la tutela della qualità dell’aria, con la notizia che negli ultimi 40 anni in Italia l’atmosfera è divenuta più limpida con un miglioramento della qualità dell’aria, ricordando lo smog, termine inglese coniato proprio in quegli anni dall’incrocio delle parole smoke, “fumo”, e fog, “nebbia”;  perdurante soprattutto in inverno, in pieno boom economico in città simbolo dell’urbanesimo come Milano. Ad arrivare a questa conclusione uno studio di un team di ricercatori del Dipartimento di scienze e politiche ambientali dell’Università degli Studi di Milano e dell’Istituto di scienze dell’atmosfera e del clima del Consiglio nazionale delle ricerche (Cnr-Isac), recentemente pubblicato su Atmospheric Environment.

Nel loro studio, gli scienziati hanno utilizzato i dati di una variabile meteorologica mai studiata sino ad oggi come la visibilità atmosferica orizzontale, fortemente influenzata dalle concentrazioni di inquinamento atmosferico. Una variabile, la visibilità orizzontale, di fondamentale importanza in molti ambiti come quello del traffico aereo e per questo monitorata in continuo da molti decenni in tutte le stazioni del Servizio Meteorologico dell’Aeronautica Militare, dove viene valutata attraverso un operatore addestrato, mediante una serie di riferimenti, quale è la massima distanza alla quale un oggetto risulta visibile.

Lo studio analizza l’evoluzione della frequenza delle giornate con “atmosfera limpida”, corrispondenti ad una visibilità superiore a 10 e a 20 km in diverse aree del territorio italiano nel periodo 1951-2017, mettendo in evidenza come tale frequenza si sia profondamente modificata in tutte le aree considerate, con le modificazioni più significative registrate proprio nelle aree più inquinate del Paese come il distretto padano, dove la frequenza delle giornate con visibilità sopra i 10 o i 20 km è più che raddoppiata negli ultimi 40 anni.

Una delle spiegazioni storiche più plausibili appare abbastanza evidente, riportandoci proprio agli anni del boom economico, che, oltre alle ricadute positive ci ha portato in dote una rapida crescita delle emissioni negli anni ’60 e ’70, rpima della graduale nascita e maturazione di un quadro normativo sempre più preciso in termini di qualità dell’aria, dettato progressivamente anche dai riferimenti comunitari.

Sul nuovo studio il commento di Maurizio Maugeri docente di Fisica dell’atmosfera all’Università di Milano, che precisa come Le analisi effettuate hanno quindi messo in evidenza in modo molto efficace il grande successo che si è avuto in Italia sul fronte della lotta all’inquinamento atmosferico. Tuttavia, non dobbiamo scordare che si può e si deve fare ancora di più per completare il percorso di risanamento che i dati di visibilità in atmosfera documentano in modo così efficace”.

Nella ricerca viene evidenziato in particolare il legame tra i livelli di particolato atmosferico e trasparenza atmosferica. Al riguardo anche il commento di Veronica Manara del Cnr-Isac, secondo la quale Le emissioni degli inquinanti che concorrono al particolato atmosferico, oltre a danneggiare la nostra salute, vanno infatti ad interagire con la radiazione solare riflettendola verso lo spazio causando un raffreddamento della superficie terrestre provocando, quindi, un effetto opposto a quello dei gas climalteranti, come l’anidride carbonica.

Un altro aspetto importante messo in evidenza dallo studio e poi quello dell’aumento del contenuto di aerosol in atmosfera registrato sino agli inizi degli anni ’80, il quale ha parzialmente oscurato l’aumento di temperatura causato delle sempre più alte concentrazioni di anidride carbonica, per le quali solo successivamente a tale periodo sono arrivate politiche di contenimento delle emissioni, che hanno consentito di registrare negli ultimi decenni, una progressiva riduzione degli aerosol, che ha determinato un aumento della radiazione solare che giunge a terra “smascherando” il vero effetto dei gas serra. In una tale situazione, mentre tra gli anni ’50 e la fine degli anni ’70 la temperatura nel nostro Paese è rimasta praticamente costante, dagli anni ’80 ad oggi ha registrato un incremento di quasi mezzo grado ogni decennio.

Sauro Secci

Pubblicato in Ambiente | Contrassegnato , , | Lascia un commento

Nuovo Report IPCC: determinante l’uso sostenibile del suolo per salvare il pianeta

foto di copertina tratta dalla copertina del report IPCC “Climate Change and Land”

E’ stato pubblicato in questi giorni un nuovo report speciale dell’IPCC (Intergovernmental Panel on Climate Change) dedicato a desertificazione, degrado del suolo, gestione sostenibile del territorio e sicurezza alimentare, nel quale si richiamano tutti, dai decisori politici ai consumatori, ad una revisione del sistema di produzione alimentare e di gestione del suolo, ritenendolo determinate per il nostro futuro sul pianeta.

L’eccesso di sfruttamento del suolo contribuisce al cambiamento climatico il quale ha un impatto sulla salute del pianeta:  questo in estrema sintesi il profilo tracciato dal Report Speciale dell’Intergovernmental Panel on Climate Change presentato oggi a Ginevra, secondo il quale i tentativi di limitazione del riscaldamento globale fatto esclusivamente con il taglio delle emissioni prodotte dai comparti industriale e dei trasporti sono destinati a fallire se non accompagnati da azioni concrete, da parte di produttori, amministratori e consumatori per rivedere l’intero sistema di produzione alimentare legato alle filiere primarie agricole, dell’allevamento), della gestione dei territori, necessarie per orientare con decisione la bussola verso una effettiva gestione sostenibile delle risorse naturali a disposizione.

Si tratta di un report, quello prodotto da IPCC, risultato di un lungo lavoro di oltre due anni,  le cui linee guida furono stilate a febbraio 2017, durante una delle riunioni dell’IPCC a Dublino ed alla cui stesura parteciparono 107 esperti provenienti da 52 Paesi di tutto il mondo, di cui oltre la metà provenienti da Nazioni in via di sviluppo. Sono state oltre 7 mila le ricerche analizzate e confrontate per la redazione dello studio, integrate da oltre 28mila commenti aggiunti dagli esperti chiamati a revisionare il testo in 3 diverse sessioni di lettura critica.

Ad agricoltura, silvicoltura e altri usi intensivi del suolo sono imputabili il 23% di tutte le emissioni di gas serra di origine antropica (il 13% di CO2, il 44% di metano e l’82% di protossido d’azoto tra il 2007 e il 2016), con il report IPCC che stima che una percentuale compresa tra il 69% e il 76% della superficie terrestre libera dai ghiacci sia utilizzata dagli esseri umani per nutrire, vestire e sostenere la crescita della popolazione.

In quasi 60 anni, dal 1961 ad oggi, è stata un’area equivalente alla superficie dell’Australia, cioè oltre 3,2 milioni di chilometri quadrati, ad essere stati convertiti ad uso agricolo. Nello stesso periodo, i cambiamenti intervenuti nel sistema alimentare e nei consumi hanno costretto il settore agricolo a orientarsi decisamente verso un uso estremamente intensivo del suolo, sostenuto fortemente dall’impiego di prodotti chimici come fertilizzanti, insetticidi e pesticidi, oltre che da una crescente esigenza di risorse idriche, con circa il 70% dei consumi mondiali d’acqua oramai destinati ad agricoltura ed energia.

Effetti davvero dilanianti quelli dell’agricoltura intensiva, la quale compatta il suolo, accentua i fenomeni di erosione e riduce la quantità di materiale organico nel terreno, tema cruciale analizzato anche nella edizione 2019 di Ecofuturo Festival. Inoltre, l’uso di fertilizzanti artificiali ha determinato il raddoppio delle emissioni negli ultimi 50 anni del protossido di azoto (N2O), un gas serra dall’elevatissimo potere climalterante con la capacità di trattenere il calore terrestre fino a 300 volte superiore all’anidride carbonica.

Uno dei capitoli principali d’impatto del modello di agricoltura intensiva oggi imperante oltre che dalle pratiche colturali è costituito dall’allevamento intensivo di bovini e ovini, con la metà delle emissioni totali di metano, uno dei gas serra più potenti, proveniente da bovini e risaie, mentre fenomeni come deforestazione e distruzione delle torbiere sono causa di ulteriori significativi incrementi delle emissioni di carbonio. Sugli stili di vita da registrare il raddoppio dei consumi di carne nell’ultimo mezzo secolo, con il conseguente incremento del 70% delle emissioni di metano causate dall’allevamento di bovini e ovini.

Sul fronte della produzione di energia da colture, a cui è dedicato uno specifico capitolo del report, le coltivazioni destinate alla produzione di biocarburanti non possono rappresentare una soluzione sostenibile per contrastare i cambiamenti climatici. Nel report si rileva la riguardo come, se tali coltivazioni arrivassero a coprire un’area globale compresa tra 772 mila e 2,3 milioni di miglia quadrate verrebbe compromessa la sicurezza alimentare di tutti, ma in particolare delle popolazioni sub sahariane.

Venendo poi alla gestione dei suoli, uno dei temi centrali anche di Ecofuturo Festival 2019 con nuovi modelli di agricoltura,portati avanti in Italia dalla incisiva azione del CIB (Consorzio Italiano Biogas), anche con la strategia del “4pour1000”, lanciata in occasione del COP21 di Parigi (vedi post ““La Terra salvata dalle terra: il grande intervento di Stefano Bozzetto (CIB)“) 

La gestione del suolo è un altro dei punti cardine del report: secondo gli esperti dell’IPCC, occorrerebbe fare tutto il possibile per assicurare un management sostenibile dei terreni, in modo che possano assorbire grandi quantità di CO2. Tra il 2007 e il 2016, il 29% di tutto il diossido di carbonio prodotto dalle attività umane è stato assorbito da piante e alberi e stoccato come materiale organico nel terreno.

Nel rapporto si spiega come l’erosione del suolo imputabile alle attività umana sia cresciuta per arrivare fino a 100 volte più rapidamente delle capacità rigenerative naturali causando una ulteriore accelerazione dei cambiamenti climatici, interessando in particolare aree ad alta vulnerabilità come zone costiere depresse, delta dei fiumi, terre aride e zone ricoperte da permafrost. 

Come ha spiegato il professor Hans-Otto Pörtnercodirettore del Gruppo II dell’IPCC, “La terra già in uso potrebbe alimentare il mondo in un clima in evoluzione e fornire biomassa per le energie rinnovabili ma è necessaria un’azione tempestiva e di vasta portata in diverse aree, anche per la conservazione e il ripristino degli ecosistemi e della biodiversità”.

Una grande priorità quella della gestione sostenibile del suolo anche per prevenire e limitare gli effetti catastrofici di eventi climatici estremi, secondo il report infatti, circa 500 milioni di persone vivono attualmente in aree desertificate. Come sottolinea il professor Kiyoto Tanabe, codirettore della Task Force on National Greenhouse Gas InventoriesIn un futuro con piogge più intense aumenta il rischio di erosione del suolo nei campi coltivati e la gestione sostenibile del territorio è un modo per proteggere le comunità dagli impatti dannosi di questa degrado del suolo e dalle frane – ha spiegato – Tuttavia, ci sono limiti a ciò che può essere fatto, quindi in alcuni casi il degrado potrebbe essere irreversibile”.

Fonte: Report IPCC “Climate Change and Land”

Molto interesse anche durante la presentazione del report, per il capitolo dedicato alla sicurezza alimentare, nell’ambito del quale gli esperti dell’IPCC, stimano che il cibo prodotto sprecato si collochi tra il 25% e il 30%, considerando che nel periodo tra il 2010 e il 2016 una percentuale tra l’8% e il 10% delle emissioni complessive di gas serra di origine antropiche è imputabile proprio allo spreco di cibo.

Un aiuto in questo senso risiederebbe proprio in un ambito come quello delle diete alimentari, la cui revisione potrebbe dare un contributo significativo per il contenimento del fenomeno di degrado del suolo, migliorando la gestione delle risorse: nel report viene indicato l’impatto sul clima e sul territorio di diverse tipologie di diete alimentari. Un lavoro di stima condotto con particolare attenzione dal momento che, come spiegano gli esperti dell’IPCC, il discorso sulle diete alimentari tocca questioni culturali e specifiche di territori e comunità estremamente diverse tra loro.

Un fenomeno quello dei cambiamenti climatici, che colpisce tutti i 4 grandi pilastri della sicurezza alimentare:

  • disponibilità;
  • accessibilità;
  • utilizzo;
  • stabilità.

La riduzione dei terreni produttivi, l’eventuale crescita dei prezzi, la riduzione di nutrienti e della qualità dei prodotti, rischiano di divenire fattori con cui ampie fasce di popolazione, soprattutto nei Paesi tropicali, potrebbero avere a che fare nei prossimi decenni.

Significativa sul tema delle diete alimentari la posizione della dottoressa Debra Roberts, codirettrice del Gruppo II dell’IPCC, secondo la quale “Le diete bilanciate con alimenti a base vegetale, come cereali a grana grossa, legumi, frutta e verdura e alimenti di origine animale prodotti in modo sostenibile in sistemi a basse emissioni di gas a effetto serra, offrono importanti opportunità di adattamento e limitazione dei cambiamenti climatici.

Si tratta di un tema influenzato da diversi importanti fattori come istruzione ai valori sociali e culturali e  decisioni politiche e quelle infrastrutturali come ha sottolineato il Direttore dell’IPCC, Hoesung Lee che richiede un ricorso massiccio alla cooperazione internazionale e quella tra tutti i livelli della società.

Significativo infine lo slogan di presentazione del Report IPCC: Land is where we live. Land is under growing human pressure. Land is a part of the solution. But land can’t do it all” cioè “

La terra è il posto in cui viviamo. La terra è sottoposta alla crescente pressione dell’uomo. La terra è parte della soluzione. Ma la terra non può fare tutto da sola”.

Link per scaricare le diverse sezioni del Report IPCC “Climate Change and Land”

Sauro Secci

Pubblicato in Senza categoria | Lascia un commento