IL PESO ENERGETICO DELL’INTELLIGENZA ARTIFICIALE

Quando Italo Calvino scrisse “Lezioni americane” dedicò il primo capitolo alla leggerezza. Dopo quarant’anni di carriera era arrivato il momento per lui di definire il suo lavoro. Decenni di scritti, fiction e sperimentazioni furono sintetizzati in un’unica frase: “la mia operazione è stata il più delle volte una sottrazione di peso”. E la sottrazione del peso è stata anche l’operazione che, di volta in volta, ha svolto la tecnica per migliorare la vita dell’uomo. Ogni innovazione è stata utile per questo: dall’invenzione della ruota, passando per il telefono e il motore a scoppio. È per questo che il cambiamento non ha ragione di spaventare, soprattutto quando promette di salvare dal gravame.
L’intelligenza artificiale, e questo è certo, ci aiuterà ad essere più produttivi, ed è una salvezza soprattutto in un Paese che vede gli stipendi medi fermi dal 1990.
Eppure quando parliamo di digitale dobbiamo tener conto che quello che ci appare immateriale, leggero ed effimero, è in realtà solido, concreto e fisico. Mi riferisco in particolare alla realizzazione dei data center, necessari per lo sviluppo dell’IA, e alla loro domanda energetica. Basti pensare che, secondo l’International Energy Agency (IEA), per addestrare un singolo modello di intelligenza artificiale serve più elettricità di quanta venga consumata da cento case americane in un anno e che, dal 2010 ad oggi, la voracità di energia elettrica – per questi utilizzi – è raddoppiata ogni sei mesi.
Si manifestano allora due macro temi, che sono possibili generatori di disparità: il primo riguarda l’approvvigionamento di materiali utili alla causa, come metalli e terre rare, oggi gestiti da alcuni Paesi in versione monopolistica. Il secondo riguarda il costo dell’energia elettrica e, soprattutto, la sua stabilità. Soffermandoci qui possiamo notare quanto le scelte di policy del vecchio Continente, in particolare l’uscita dal nucleare di alcuni Paesi, abbiano generato una disparità competitiva gigantesca. Lo scarto si nota ad esempio con gli Stati Uniti d’America, dove grazie all’abbondante produzione di gas naturale il costo dell’energia elettrica è tra i più bassi al mondo. Quando parliamo di elettricità infatti parliamo di un vettore energetico, che necessita di una fonte che, per contemperare il raggiungimento degli obiettivi di decarbonizzazione e la lotta al cambiamento climatico, deve essere la meno impattante possibile. La conseguenza è invece che i vecchi impianti a carbone nella West Virginia (solo per fare un esempio), che avrebbero dovuto chiudere a breve, continueranno a funzionare per soddisfare l’enorme domanda dei data center del territorio. Come gli altri 182 impianti a carbone programmati in Cina, che rappresenta circa il 60 per cento dell’uso globale del carbone.
Per le stesse ragioni di convenienza gli investimenti in queste infrastrutture stanno aumentano in Medio Oriente, in Kuwait, in Qatar, negli Emirati Arabi e in Arabia Saudita, con tutto quello che ne consegue in termini di bias del linguaggio nella programmazione, quando parliamo di tutela dei diritti universali, e in termini di opportunità di sviluppo. Questi fattori abilitanti fanno infatti la differenza tra Paesi che sono costruttori di processi, e altri che ne sono soltanto fruitori. È facile capire da che parte sia l’Italia, quando scopriamo che da noi il costo dell’energia elettrica è il doppio rispetto a quello francese, e che siamo tra i primi importatori europei di energia elettrica. L’AD di BlackRock, Larry Fink, intervenendo recentemente al B7 Summit ha infatti affermato che molti Paesi non hanno le risorse energetiche adeguate per sostenere uno sviluppo dei sistemi di IA, e questo – aggiungiamo noi – ha un evidente impatto sugli equilibri geopolitici. Dal 2022 al 2026 il consumo globale di energia dai data center potrebbe passare da 460 TWh a 1000 TWh, diventando uguale al consumo totale di elettricità del Giappone, che è la seconda economia del G7.
Pare, secondo gli esperti, che le rinnovabili da sole non possano bastare, per tutti i temi noti che riguardano gli accumuli, la naturale intermittenza e la tenuta delle reti di distribuzione, generando preoccupazioni rispetto agli obiettivi di decarbonizzazione e allungando la vita di stabilizzatori come il gas. Allo stesso tempo però, la faccia positiva della medaglia, è che già oggi l’IA offre più di 50 applicazioni per la riduzione di questi problemi, e con il passare del tempo innovazione e ricerca renderanno sempre più vicine la sostenibilità energetica e quella sociale. Penso a quanto si può fare per l’efficientamento, la prevenzione dei guasti, il controllo delle reti e l’informazione al consumatore. In ogni caso si tratta dell’ulteriore conferma di quanto l’unico approccio giusto per osservare questi processi sia quello olistico, consapevoli che la transizione digitale e quella energetica sono strettamente interconnesse tra loro, in quanto l’una supporta l’altra. E che i percorsi iniziati dovranno avere a disposizione il mix energetico più ampio possibile, per garantire sicurezza e stabilità, senza nessuna preclusione di natura ideologica, ma solo sulla base di razionalità scientifica e neutralità tecnologica.
Quello dell’intelligenza artificiale è un asset strategico che più di altre rivoluzioni del passato rappresenta un’innovazione disruptive, soprattutto per la velocità con la quale si sta sviluppando. Per questo l’Italia e l’Europa devono – o dovrebbero – avere l’ambizione di diventare pioniere della sua programmazione e dei suoi utilizzi. Per fare questo bisogna costruire un ecosistema, solido, che sia ospitale e compatibile con lo scopo. Con infrastrutture fisiche e digitali, con energia a basso prezzo, e una finanza che sostenga il peso di questa innovazione. Perché come aggiungeva Calvino, preoccuparsi della leggerezza è importante, non è superficiale.