Notizie - 15 giugno 2025
Scritto da Solar Impulse Foundation 9 min lettura
Info
L'aumento dei centri dati specifici per l'intelligenza artificiale
Dall'inizio delXXI secolo, l'intelligenza artificiale ha avuto un profondo impatto sull'evoluzione delle TIC(Tecnologie dell'Informazione e della Comunicazione) e, più recentemente, sulle nostre abitudini quotidiane. Che si tratti di trovare fonti per una tesi di laurea, di generare immagini per i social media o persino di assistere nell'interpretazione di una radiografia, la tecnologia AI è oggi in grado di fornire risposte rapide e affidabili con notevole efficienza.
Stiamo assistendo a enormi investimenti pubblici e privati volti a elevare ulteriormente la diffusione dell'IA a livello globale: a febbraio, l'Unione Europea ha lanciato il programma InvestAI, con l'obiettivo di mobilitare 200 miliardi di euro per l'applicazione dell'IA. Anche l'Arabia Saudita ha annunciato il Project Transcendence, un progetto da 100 miliardi di dollari che mira a posizionare il Paese come leader mondiale dell'IA.
L'IA potrebbe rafforzare le soluzioni al riscaldamento globale e sostenere lo sviluppo di misure di mitigazione e adattamento in risposta ai cambiamenti climatici. Ad esempio, Netcarbon Farming utilizza i dati satellitari e gli algoritmi dell'IA per misurare con precisione la cattura del carbonio nei settori rurali e urbani, fornendo un follow-up dei progetti di stoccaggio del carbonio ovunque sulla terra. Tuttavia, l'IA crea anche nuove sfide nei nostri sforzi per ridurre le emissionidi CO2 e gli sprechi energetici causati dal consumo di energia dei centri dati. Entro il 2028, secondo le stime del Lawrence Berkeley National Laboratory, la domanda di elettricità per scopi specifici dell'IA potrebbe salire tra i 165 e i 326 terawattora all'anno, più di tutta l'elettricità attualmente utilizzata dai data center statunitensi. Mentre l'adozione dell'IA si espande a un ritmo senza precedenti, dobbiamo considerare attentamente una questione essenziale: Come continuare lo sviluppo dell'IA rispettando i nostri obiettivi ambientali?
Come funziona l'IA e perché ha un impatto sull'ambiente
Un'ampia comprensione dei passi necessari per sviluppare modelli di IA può spiegare l'influenza dell'IA sull'uso delle nostre risorse e sui cambiamenti climatici.
Prima di tutto, è necessario definire l'obiettivo di un'IA: preferirà comprendere e generare il linguaggio umano o fare previsioni meteorologiche? Vengono quindi raccolti da miliardi a trilioni di parole o testi da libri, siti web o codici pubblici, a seconda dell'obiettivo dell'IA. Questi insiemi di dati, insieme all'architettura del modello (numero di strati, parametri), determinano la profondità e la complessità della rete neurale (GPT-3 contiene 175 miliardi di parametri, GPT-4 è probabilmente molto più grande, con alcune stime che affermano che contiene quasi un trilione di parametri)1.
Poi arriva la fase più costosa e ad alto consumo energetico: l'addestramento del modello. Utilizzando GPU (Graphics Processing Unit) come NVIDIA A100 e cluster di supercomputing (Microsoft Azure per Open AI), enormi quantità di testo vengono immesse nel modello, che impara a prevedere la parola successiva e confronta le previsioni con il testo reale per regolare i suoi parametri. Questo processo viene ripetuto per settimane o mesi.
Successivamente, il modello viene perfezionato: vengono filtrati i contenuti tossici o tendenziosi, vengono introdotti set di dati più specifici e alcuni modelli utilizzano l'RLHF (Reinforcement Learning from Human Feedback), in cui imparano a produrre risposte più allineate e sicure sulla base del feedback umano. Il modello viene quindi ottimizzato per un uso più rapido e distribuito su server cloud (Microsoft Azure). Diventa disponibile per gli utenti tramite API o un'interfaccia web. I modelli migliorano continuamente raccogliendo feedback, correggendo bug, aggiungendo nuove conoscenze e migliorando l'efficienza e la sicurezza.
Come detto in precedenza, è la formazione del modello a costare di più dal punto di vista finanziario, ambientale ed energetico. Migliaia di GPU che girano in parallelo 24 ore su 24, 7 giorni su 7, per mesi, hanno un consumo energetico gigantesco e i data center, che sono edifici a temperatura controllata che ospitano l'infrastruttura di calcolo, hanno bisogno di una grande quantità di acqua come fonte di raffreddamento. L'esecuzione del modello di per sé è meno impegnativa, ma a causa del numero di utenti che attualmente utilizzano l'IA, i costi energetici sono enormi e continueranno ad aumentare se la tendenza attuale continua.
Questi costi energetici si traducono direttamente in emissioni diCO2. Quando i modelli di IA sono alimentati da reti che funzionano con combustibili fossili o carbone, il loro funzionamento può comportare notevoli emissioni di carbonio. Un impatto ambientale che non potrà che crescere con la continua espansione dell'impiego dell'IA.
Nel 2024 i carichi di lavoro dell'IA hanno consumato fino al 20% dell'elettricità dei data center globali. Gli specialisti prevedono che questo numero salirà a quasi il 50% entro la fine dell'anno.2
Le cifre
Prima di immergerci nei numeri associati all'implementazione dei modelli di IA, dobbiamo tenere presente che a tutt'oggi aziende come OpenAI, Google e Anthropic non divulgano pubblicamente il consumo energetico dei loro modelli. Non abbiamo informazioni precise su quante ore di GPU sono state utilizzate, sulla quantità di addestramenti eseguiti o sull'efficienza di un data center. Tuttavia, possiamo fare delle stime basate su documenti di ricerca, fughe di notizie o analisi di esperti. Ad esempio, sappiamo che ChatGPT è stato addestrato su GPU NVIDIA A100. Inoltre, sappiamo quanto lavoro di calcolo grezzo ha richiesto il modello. Utilizzando queste conoscenze, possiamo convertire i FLOP (numero di operazioni) in tempo della GPU e, infine, in chilowattora (kWh) per ottenere una gamma di elettricità necessaria per l'IA. I dati seguenti illustrano l'uso delle risorse e l'impatto ambientale dell'IA:
51.772.500-62.318.750 kWh per addestrare il GPT-4, circa 40-48 volte superiore all'elettricità richiesta per il GPT-3 (1.287.000 kWh), equivalente al consumo annuale di circa 3.600 abitazioni statunitensi.3
Ogni interazione con modelli di intelligenza artificiale come GPT può consumare fino a 10 volte più elettricità di una normale ricerca su Google.4
Nonostante l'impegno a diventare carbon negative entro il 2030, le emissioni totali di Microsoft sono aumentate del 23,4%, con un incremento significativo delle emissioni Scope 3 dovuto all'espansione dell'infrastruttura AI.5
Entro il 2027, si prevede che la domanda globale di IA rappresenterà 4,2-6,6 miliardi di metri cubi di prelievo d'acqua all'anno, superando il prelievo totale annuale di acqua di Paesi come la Danimarca.6
Il ciclo di vita dei modelli di IA, dalla produzione dei chip alle operazioni dei data center, degrada la qualità dell'aria attraverso le emissioni di inquinanti come il particolato fine, con un impatto sulla salute pubblica.7
Nel 2024 circa 315 milioni di persone in tutto il mondo utilizzavano strumenti di IA (scrittura, image&design, video&audio, business&productivity) e le proiezioni stimano che questo numero sarà più che raddoppiato fino a superare i 700 milioni di utenti entro il 2030.8
Avendo constatato i numerosi vantaggi dell'IA per la nostra società, non possiamo pensare di ridurne l'applicazione. Tuttavia, il modo in cui sviluppiamo le tecnologie e le strutture di IA può evolversi e diventare più pulito e sostenibile. Esploriamo le possibilità.
Ridurre l'impatto dell'IA sulle risorse naturali e sull'ambiente
Diversi metodi volti a ridurre il consumo energetico e i rifiuti, nonché l'impronta di carbonio causata dall'IA-tech, sono già accessibili su scala globale e in fase di attuazione. Tra queste soluzioni, alcune hanno ricevuto il marchio Solar Impulse Efficient Solution Label. Ecco le azioni concrete che sono state intraprese:
Centri dati alimentati da energie rinnovabili come il solare, l'idroelettrico e l'eolico:
Dal 2017 Meta (ex Facebook) ha ridotto le proprie emissioni operative del 94% alimentando i propri data center e uffici con il 100% di energia rinnovabile.
Aumentare l'efficienza energetica dell'hardware di calcolo:
Le GPU H100 di NVIDIA offrono miglioramenti in termini di prestazioni ed efficienza rispetto alle A100 per i carichi di lavoro AI. Grazie a una banda passante di memoria superiore del 67% che facilita il trasferimento dei dati e a un nuovo motore di trasformazione che accelera l'addestramento di modelli basati su trasformatori, potrebbe essere una soluzione molto efficiente.
Ottimizzare i data center migliorando l'efficacia dell'uso dell'energia (PUE) e sviluppando i data center in aree più fredde per ridurre le esigenze di raffreddamento:
La soluzione Papillon di Beeyon, etichettata dalla Solar Impulse Foundation dal 2019, identifica le azioni di risparmio energetico su qualsiasi tipo di server e sistema operativo e riduce i costi di capitale fino al 30%.
Analogamente, i servizi di gestione dei dati intelligenti di Heex Technologies offrono alle organizzazioni una piattaforma per passare dai Big Data agli Smart Data. Ciò offre l'opportunità di ridurre del 30% il consumo energetico generato dall'elaborazione dei dati.
Il Verne Global Data Centre di Keflavik, in Islanda, opera con un PUE molto basso grazie all'aria fredda naturale e quindi senza bisogno di refrigeratori meccanici. Inoltre, ha un'impronta di carbonio ridotta al minimo perché funziona con energie rinnovabili. Tra i clienti figurano NVIDIA e DELL Technologies, aziende con una presenza importante nel mondo dell'AI.
Riciclare il calore e l'acqua per il raffreddamento o il riscaldamento degli edifici:
Deutsche Telekom e Cloud&Heat hanno ideato una soluzione per ridurre le emissioni di CO2 dei data center del 41%. Sviluppando un sistema di raffreddamento con raffreddamento diretto ad acqua calda e recupero del calore residuo, il 78% del calore viene dissipato e immesso nel circuito dell'acqua calda dell'edificio per essere riutilizzato. In questo modo è possibile ridurre i costi energetici fino al 40%.
La soluzione di raffreddamento a immersione di Hyperion per i Data Center consiste in server configurati come un fluido di trasferimento del calore immergibile e biodegradabile al 100%. Questa tecnologia cloud evita l'uso di sistemi di condizionamento grazie alla tecnologia di raffreddamento a immersione. L'anno scorso è stata adottata in Francia dalla comunità dei comuni di Ernée per ridurre il consumo di elettricità causato dall'hosting dei dati e riutilizzare il calore prodotto dai server dei computer.
Qarnot (QH-1) di Qarnot Computing riduce l'impronta di carbonio dei calcoli di circa il 70-75%! QH-1 sfrutta il calore disperso dai data center e lo utilizza come fonte di calore per riscaldare gli ambienti. Le tecnologie Qarnot sono state implementate 6 anni fa dal Département de la Gironde a Bordeaux e riconosciute dalla legge francese come energia rinnovabile! A Bordeaux, 6000 m2 di edifici sono completamente riscaldati dal QH-1 e forniscono calore rinnovabile e gratuito agli utenti. L'edificio è stato il primo al mondo interamente riscaldato dai computer.
La piattaforma AI della Fondazione Solar Impulse
Alla Solar Impulse Foundation, vogliamo beneficiare dei vantaggi dell'IA senza perdere di vista la nostra missione di sostenibilità. Pertanto, abbiamo adottato alcune misure per ridurre l 'impronta ambientale della nostra IA.
La nostra IA e l'infrastruttura della piattaforma sono ospitate su Microsoft Azure, un provider di cloud impegnato nella neutralità delle emissioni di carbonio. Azure compensa le emissionidi CO2 generate dai suoi centri dati per garantire che le nostre operazioni contribuiscano a un futuro più sostenibile.
Utilizziamo il GPT-4o-mini di Open AI, un modello più piccolo e meno dispendioso in termini di risorse, che riduce il consumo di energia durante le operazioni e fornisce comunque risposte efficienti, garantendo un equilibrio tra qualità e responsabilità ambientale.
I nostri token sono stati ottimizzati riassumendo le interazioni e semplificando le query. Limitando l'uso dei token, riducendo i requisiti di risorse computazionali e progettando le interazioni in modo che siano il più efficienti possibile, possiamo ridurre la nostra impronta ambientale.
Inoltre, stiamo valutando la possibilità di adottare modelli linguistici open-source (LLM) che offrano una migliore trasparenza e metriche di impatto ambientale, che potrebbero rappresentare una valida alternativa ai modelli proprietari come OpenAI e aiutarci a perseguire il nostro percorso verso lo sviluppo sostenibile.
L'espansione dell'IA come esempio di sviluppo sostenibile
I leader dell'industria dell'IA hanno l'opportunità di dimostrare che l'espansione e l'avanzamento di una delle innovazioni più entusiasmanti del nostro secolo non devono necessariamente avvenire a costo di distruzione e inquinamento ambientale. L'adozione di una mentalità incentrata sull'efficienza e sulla produzione pulita potrebbe ridurre i costi sia dal punto di vista finanziario che ambientale senza danneggiare la capacità dell'IA. Potrebbe anche servire da esempio globale per dimostrare che innovazione e sostenibilità possono andare di pari passo e che abbiamo davvero imparato dagli errori del passato della produzione di massa a tutti i costi!
Riferimenti:
2. https://medium.com/data-science/the-carbon-footprint-of-gpt-4-d6c676eb21ae
3. https://www.wired.com/story/new-research-energy-electricity-artificial-intelligence-ai
4. https://www.polytechnique-insights.com/en/columns/energy/generative-ai-energy-consumption-soars
5. https://blogs.microsoft.com/on-the-issues/2025/05/29/environmental-sustainability-report
6. https://www.noemamag.com/thirsty-bots-are-drinking-our-scarce-water/
7. https://news.ucr.edu/articles/2024/12/09/ais-deadly-air-pollution-toll
8. https://altindex.com/news/million-people-use-ai-growth
Scritto da Solar Impulse Foundation su 15 giugno 2025