L'intelligenza artificiale (IA) si è affermata come una potente risorsa tecnologica, con il potenziale di rivoluzionare settori da migliaia di miliardi di dollari, dalla vendita al dettaglio alla medicina. Tuttavia, la creazione di ogni nuovo chatbot e generatore di immagini richiede una notevole quantità di elettricità, sollevando preoccupazioni sulle emissioni di carbonio associate al riscaldamento globale.
Grandi aziende come Microsoft Corp., Alphabet Inc. (la società madre di Google) e OpenAI, il produttore di ChatGPT, utilizzano il cloud computing, che si basa su migliaia di chip all'interno di server situati in grandi data center in tutto il mondo, per addestrare algoritmi di intelligenza artificiale chiamati modelli. Il successo di ChatGPT ha incoraggiato altre aziende a lanciare i propri sistemi di intelligenza artificiale e chatbot concorrenti, o a sviluppare prodotti che utilizzano modelli di intelligenza artificiale di grandi dimensioni per offrire funzionalità agli utenti, dagli acquirenti di Instacart agli utenti di Snap e ai CFO. Tuttavia, l'intelligenza artificiale consuma più energia rispetto ad altre forme di elaborazione e l'addestramento di un singolo modello può consumare più elettricità di quella consumata da 100 famiglie statunitensi in un anno intero. La quantità totale di elettricità e di emissioni di carbonio attribuite all'intelligenza artificiale è ancora sconosciuta a causa della rapida crescita del settore e della mancanza di trasparenza.
La trasparenza nell'uso dell'energia e nelle emissioni dei modelli di intelligenza artificiale è essenziale. Con queste informazioni a disposizione, governi e aziende possono prendere decisioni informate sull'uso di modelli di intelligenza artificiale di grandi dimensioni per la ricerca medica o la conservazione delle lingue indigene, ad esempio, considerando il consumo di elettricità e le emissioni coinvolte. Una mancanza di trasparenza può comportare controlli più rigorosi, come è accaduto nel settore delle criptovalute, dove il consumo energetico di Bitcoin ha generato critiche e misure normative.
I modelli di intelligenza artificiale stanno diventando sempre più grandi, con GPT-3 di OpenAI che utilizza 175 miliardi di parametri, rispetto agli 1,5 miliardi del suo predecessore. L'addestramento di questi modelli consuma una quantità significativa di energia, ma l'utilizzo effettivo del modello dopo l'addestramento può richiedere ancora più energia a causa dei milioni o miliardi di richieste che ricevono. Tuttavia, le aziende di intelligenza artificiale stanno lavorando per migliorare l'efficienza energetica dei loro modelli e si sono impegnate a raggiungere emissioni di carbonio negative o neutre. Ad esempio, Microsoft, Google e Amazon hanno obiettivi di neutralità carbonica, investendo nella ricerca per misurare il consumo energetico e l'impatto ambientale dell'intelligenza artificiale e implementando misure per rendere i loro sistemi più efficienti.
Tuttavia, permangono delle sfide. Uno dei principali misteri è la quantità totale di emissioni di carbonio associate alle unità di elaborazione grafica (GPU), ampiamente utilizzate per addestrare i modelli di intelligenza artificiale. Nvidia, produttore leader di GPU, afferma che le sue GPU sono più efficienti dal punto di vista energetico rispetto alle CPU per le attività di intelligenza artificiale. Tuttavia, la divulgazione completa delle emissioni dirette e indirette legate alle GPU è ancora sconosciuta.
In sintesi, l'energia elettrica svolge un ruolo cruciale nel progresso dell'Intelligenza Artificiale. Le dimensioni crescenti dei modelli di IA e la richiesta di formazione e utilizzo efficiente di questi modelli stanno determinando la necessità di trasparenza nei consumi energetici e nelle emissioni di carbonio associate all'IA. Le aziende stanno lavorando per migliorare l'efficienza energetica dei propri sistemi e raggiungere obiettivi di sostenibilità, ma ci sono ancora sfide da superare per garantire un equilibrio tra progresso tecnologico e tutela ambientale.

