https://www.lifegate.it/impatto-ambientale-ia
- |
Il costo giornaliero di ChatGpt, il chatbot di OpenAI, sarebbe di circa 700mila dollari, secondo una stima dello scorso anno. Mentre altre analisi si spingono fino al milione al giorno. Quel che è certo è che il mantenimento e il funzionamento di prodotti simili è molto costoso e le bollette non possono che aumentare con la diffusione dei servizi. OpenAI, e altre aziende del settore, sarebbero quindi intrappolate in un circolo che ha del vizioso: raggiungere nuovi utenti per aumentare il giro d’affari, sapendo che ciascun utente non può che aumentare i loro costi.
Ci vuole una svolta tecnologica per rendere l’IA più sostenibile
Anche per questo Microsoft, investitore e partner commerciale di OpenAI, sta lavorando a un nuovo tipo di chip che dovrebbe rendere questi sistemi più efficienti e meno energivori, e quindi più sostenibili. Lo stesso Sam Altman, co-fondatore e capo di OpenAI, ha dichiarato recentemente che l’unico modo di risolvere la questione è una “svolta tecnologica” in grado di permettere lo sviluppo di IA più economico. Prendiamo Gpt-4, il modello linguistico di grandi dimensioni alla base di ChatGpt, ovvero quello che permette di comprendere e generare testi e immagini: oltre all’enorme costo iniziale nel cosiddetto “allenamento”, ciascuna richiesta e interazione con Gpt segna un consumo non dimenticabile di energia. Ad oggi, però, non si intravedono svolte di questo tipo all’orizzonte.
Le alternative sostenibili disponibili sul mercato
Così, mentre Microsoft investe nei chip, Altman prova a circumnavigare la questione e sogna fonti d’energia a bassissimo prezzo. Da tempo, infatti, l’imprenditore ha investito in Helion, startup sperimentale sulla fusione nucleare il cui obiettivo è di creare “soli artificiali”, fonti infinite e potentissime d’energia pulita. Quello della fusione nucleare è ormai il Sacro Graal delle energie rinnovabili ma, grazie alle pressioni di Altman, Microsoft ha stretto un accordo di compravendita energetica da Helion a partire dal 2028. Nel frattempo, però, esistono alternative sostenibili disponibili oggi su cui si potrebbe puntare.
+775%
Il problema è destinato a ingigantirsi con la diffusione ulteriore delle IA nei prossimi anni. Secondo una ricerca della University of Washington, la gestione di centinaia di milioni di richieste a ChatGpt consumerebbe circa un gigawattora, “o l’equivalente dell’energia consumata da 33mila case statunitensi”. Secondo Arijit Sengupta, amministratore delegato di un’azienda del settore IA, a questo punto siamo all’1 per cento circa dell’adozione di sistemi simili nei prossimi anni, una prospettiva rosea per il settore che però nasconde un enorme rischio ambientale e la possibilità di “una crisi energetica piuttosto grave”.
Quello delle intelligenze artificiali è solo una parte dei consumi energetici e delle emissioni di CO2 dell’intero settore digitale, il cui impatto ambientale è destinato a crescere esponenzialmente nei prossimi anni. Da qui al 2040, sostiene uno studio da poco pubblicato dalla rivista Natura, le emissioni di CO2 legate al digitale sono destinate a crescere del 775 per cento, passando dall’1,6 per cento del totale registrato nel 2017 al 14 per cento. Per mettere questi dati in prospettiva, se il digitale fosse una nazione, sarebbe al quinto posto tra i maggiori emettitori di anidride carbonica a livello mondiale, col 3,8 per cento delle emissioni totali. Si tratta di un valore quattro volte più grande di quello di una potenza industriale come la Francia.