Secondo le stime del Lawrence Berkeley National Laboratory, circa il 4% dell’elettricità americana è oggi già assorbita dai data center. Una quota che potrebbe triplicare nel giro di pochi anni secondo l’Agenzia internazionale dell’energia: entro il 2030 il consumo globale dei data center potrebbe superare i 900 terawattora, l’equivalente dell’intero fabbisogno elettrico attuale del Giappone.
E il problema non è solo di quantità, ma di distribuzione dei costi. Molti Stati americani hanno scelto di scaricare sugli utenti finali le spese per nuove centrali, linee elettriche e infrastrutture necessarie ad alimentare i poli dell’AI. Nella regione del Mid-Atlantic, per esempio, si stima che il 70% dell’aumento delle bollette del 2024 – pari a 9,3 miliardi di dollari – sia legato esclusivamente alla crescita dei data center. In Virginia un’agenzia statale ha avvertito che la bolletta media potrebbe salire di oltre 270 dollari all’anno entro il 2030.
La corsa delle Big Tech all’IA sta dunque generando una contraddizione: da un lato le aziende investono in ricerca, efficienza e persino in piccoli reattori nucleari per alimentare le proprie server farm; dall’altro, finché le reti pubbliche dovranno sostenere l’espansione di questi giganti, famiglie e imprese vedranno crescere il peso delle proprie bollette.
C’è chi propone soluzioni più equilibrate. Alcuni Stati stanno studiando tariffe dedicate, che costringano i colossi tecnologici a farsi carico di una quota maggiore delle spese infrastrutturali. Ma il percorso sarà lungo.