L’intelligenza artificiale avanza a passi da gigante, ma dietro le sue strabilianti capacità si nasconde un costo energetico sempre più preoccupante. Con l’arrivo di modelli come GPT-5, la questione del loro impatto ambientale diventa cruciale, ponendoci di fronte a un bivio tra innovazione e sostenibilità.

Un consumo energetico che vola alle stelle
Il problema non è nuovo, ma le dimensioni che sta assumendo sì. Se già le versioni precedenti dei modelli linguistici erano energivore, con GPT-5 si parla di un’escalation notevole. Secondo uno studio dei ricercatori dell’Università del Rhode Island, elaborare una singola richiesta su questo nuovo modello potrebbe richiedere fino a 20 volte l’energia del suo predecessore.
Per dare un’idea concreta: se una semplice domanda a ChatGPT nel 2023 consumava circa 2 Wh (l’equivalente di una lampadina accesa per un paio di minuti), oggi lo stesso tipo di richiesta su GPT-5 può arrivare a consumare in media 18 Wh. Può sembrare poco, ma moltiplichiamo questo dato per i circa 2,5 miliardi di richieste che ChatGPT riceve ogni giorno: l’energia richiesta equivarrebbe al fabbisogno giornaliero di un milione e mezzo di case statunitensi. Come conferma Rakesh Kumar, professore all’Università dell’Illinois, “un modello più complesso come GPT-5 consuma più energia sia durante l’addestramento che durante l’utilizzo”.
- Studio sostiene che agenti di intelligenza artificiale incontrano un «muro matematico»
- Ridare colore ai ricordi di famiglia con l’AI
- Smartphone più cari nel 2026: l’effetto sui modelli economici
Più grande significa più inquinante?
La ragione principale di questo spropositato consumo energetico risiede nelle dimensioni e nella complessità dei nuovi modelli. Si stima che GPT-4 fosse già 10 volte più grande di GPT-3 (che contava 175 miliardi di parametri). Sebbene OpenAI non riveli i dati esatti, è chiaro che la tendenza è verso modelli sempre più vasti per migliorare le loro capacità di ragionamento e di elaborazione di testi, immagini e video.
Uno studio di Mistral AI ha evidenziato una “forte correlazione” tra le dimensioni di un modello e il suo consumo. Questo significa che un modello 10 volte più grande ha un impatto ambientale di un ordine di grandezza superiore. Shaolei Ren, docente dell’Università della California, esprime preoccupazione per questa escalation, sottolineando come le risorse utilizzate da GPT-5 siano “di diversi ordini di grandezza maggiori” rispetto ai suoi predecessori. Sebbene alcune architetture, come il “mix di esperti”, e l’uso di hardware più efficiente possano mitigare in parte il problema, la tendenza generale resta allarmante.
Conclusione: La trasparenza è il primo passo
La corsa all’intelligenza artificiale ha innescato una competizione tra giganti tecnologici per creare modelli sempre più potenti, ma il loro costo ambientale non può più essere ignorato. I ricercatori e gli esperti del settore chiedono a gran voce maggiore trasparenza da parte di aziende come OpenAI, Google e Anthropic. Rendere pubblici i dati sull’impatto ambientale dei loro modelli è un passo fondamentale per affrontare con serietà il vero prezzo del progresso tecnologico.
Per approfondire il tema del rapporto tra intelligenza artificiale e consumo energetico, ti invitiamo a consultare le analisi di fonti autorevoli come The Guardian e le pubblicazioni scientifiche delle università che guidano la ricerca in questo campo.
