Il cloud non esiste. O, meglio: esiste come metafora, utile a rendere invisibile ciò che è diventato troppo grande, troppo costoso e troppo energivoro per essere raccontato per quello che è davvero. L’idea di una potenza di calcolo diffusa, leggera e sempre disponibile ha funzionato finché l’intelligenza artificiale era un insieme di applicazioni circoscritte. Con l’avvento dei modelli su larga scala, quella metafora si è rotta. Dietro il cloud si estende oggi un apparato industriale fatto di data center, reti elettriche dedicate, catene di approvvigionamento complesse e investimenti miliardari che concentrano capacità e potere in pochi nodi strategici.
L’AI contemporanea nasce e vive dentro questa infrastruttura. Non è un software che fluttua nell’etere digitale, ma una trasformazione fisica: elettricità convertita in calcolo, silicio trasformato in previsione statistica, capitale immobilizzato in impianti che consumano territorio, acqua ed energia. Parlare di intelligenza artificiale senza parlare di questa base materiale significa accettare una narrazione parziale, che oscura i costi reali e le asimmetrie che si stanno producendo. È qui che l’AI smette di essere solo una tecnologia e diventa un fatto economico e industriale.
Il cuore di questa trasformazione è il calcolo come fattore produttivo. Addestrare e far funzionare modelli di frontiera richiede una quantità di compute che cresce più velocemente della capacità di produrlo e di renderlo accessibile. Non mancano le idee, né gli algoritmi, né tantomeno i dati. Manca il calcolo a basso costo, stabile, affidabile. Questo squilibrio trasforma il compute nel vero fattore scarso dell’economia dell’AI e introduce barriere all’ingresso che favoriscono la concentrazione. Le economie di scala sono evidenti: più capitale si investe in infrastruttura, più il costo unitario del calcolo scende; più scende il costo, più si attirano utenti e applicazioni; più applicazioni generano ricavi, più si può reinvestire in infrastruttura. Il risultato è un circuito cumulativo che premia chi è già grande e rende strutturalmente dipendenti tutti gli altri.
Questa dinamica ha effetti industriali misurabili. L’AI si organizza lungo una filiera che va dai semiconduttori alle reti, dai sistemi di raffreddamento ai software di orchestrazione, fino alla fornitura di energia. Ogni anello introduce colli di bottiglia. I chip avanzati dipendono da catene produttive estremamente concentrate; i data center richiedono autorizzazioni complesse e tempi lunghi; le reti elettriche devono essere potenziate; l’acqua diventa un input critico per il raffreddamento. La promessa di un’AI “democratizzata” si infrange contro questi vincoli materiali, che non si risolvono con una riga di codice.
È qui che emerge il secondo grande nodo: l’energia. I data center non sono semplici edifici tecnologici, ma nuove industrie energivore. Il loro fabbisogno elettrico cresce rapidamente e si concentra in aree specifiche, generando competizione con altri usi e tensioni territoriali. Il costo dell’energia incide direttamente sul costo del calcolo; la sua disponibilità condiziona le scelte di localizzazione; la sua sostenibilità ambientale influisce sull’accettabilità sociale. L’AI, spesso raccontata come strumento per l’efficienza e la transizione, diventa essa stessa una variabile critica della politica energetica. Il tema non è solo quanta energia serve, ma quando, dove e a quali condizioni viene fornita. In assenza di risposte credibili, il rischio è che l’infrastruttura dell’AI riproduca vecchi conflitti industriali sotto nuove etichette.
La dimensione territoriale completa il quadro. I data center occupano spazio, richiedono collegamenti, modificano l’uso del suolo. Le comunità locali ne percepiscono i costi prima dei benefici, soprattutto quando l’occupazione diretta è limitata e il valore generato si concentra altrove. Senza una governance attenta, l’infrastruttura dell’AI può trasformarsi in una sequenza di enclavi tecnologiche, scollegate dal contesto che le ospita. Anche per questo l’AI non è solo una questione di innovazione, ma di pianificazione, regolazione e politiche industriali.
In questo scenario, l’Europa ha iniziato a muoversi con maggiore consapevolezza. L’idea di investire in infrastrutture condivise di calcolo, come le AI Factories e le iniziative legate a EuroHPC, segnala un cambio di paradigma: non limitarsi a regolare l’AI, ma costruirne le basi materiali. È una risposta a un problema strutturale riconosciuto anche dalla letteratura internazionale, che sottolinea come l’accesso al compute condizioni la capacità di innovare e di competere, come evidenziato da organismi come l’OECD e la World Bank. Tuttavia, l’infrastruttura non è neutra. Senza una strategia di accesso, competenze e domanda, il rischio è costruire capacità che non generano ecosistemi, o che finiscono per rafforzare dipendenze esistenti.
Il caso italiano rende queste tensioni ancora più evidenti. Da un lato, il Paese è attrattivo per nuovi investimenti in data center, grazie alla posizione geografica e alla domanda crescente. Dall’altro, sconta ritardi infrastrutturali, complessità autorizzative e una frammentazione delle politiche. L’AI come industria pesante costringe a scelte che non possono essere rinviate: dove localizzare gli impianti, come alimentarli, come integrarli nelle reti, come garantire benefici diffusi. Non sono decisioni tecniche, ma politiche nel senso più pieno del termine.
La narrazione dominante tende a separare l’AI dall’economia reale, a presentarla come un acceleratore immateriale che si innesta su qualunque contesto. In realtà, l’AI è sempre più simile alle grandi infrastrutture del passato: ferrovie, reti elettriche, telecomunicazioni. Come allora, il punto non è solo costruire, ma governare. Chi controlla l’infrastruttura del calcolo controlla l’accesso all’innovazione, orienta i mercati, influenza le traiettorie tecnologiche. È una forma di potere silenziosa, perché nascosta dietro l’interfaccia del cloud.
Riconoscere che il cloud non esiste non significa negare l’utilità dei servizi digitali, ma restituire visibilità alla loro base materiale. Significa spostare il dibattito dall’ennesima applicazione all’architettura che la rende possibile. Significa, soprattutto, accettare che l’intelligenza artificiale del XXI secolo non è una tecnologia leggera, ma una industria pesante che richiede scelte collettive, investimenti pubblici e una visione di lungo periodo. Senza questa consapevolezza, il rischio è di continuare a parlare di futuro ignorando il presente che lo sta costruendo, un rack alla volta.