Il disegno di legge sull’Intelligenza Artificiale (DDL 1146-B), approvato definitivamente dal Parlamento nel giugno 2025, rappresenta un passaggio di rilievo per la costruzione di un quadro regolatorio nazionale capace di interagire con l’AI Act europeo, entrato in vigore nel 2024. L’Italia si colloca così tra i primi Paesi membri ad affiancare alla disciplina comunitaria un insieme di norme interne orientate non solo al recepimento, ma alla valorizzazione di un percorso di innovazione che deve necessariamente tenere insieme sviluppo tecnologico, tutela dei diritti e promozione della competitività economica.
L’architettura del provvedimento è ambiziosa e si muove su più piani: la protezione dei diritti fondamentali, l’orientamento etico e democratico dell’innovazione, il sostegno al tessuto produttivo, la valorizzazione della ricerca e il rafforzamento delle strutture pubbliche di governance. In questo senso, il DDL non si limita a fissare principi astratti, ma individua settori specifici di applicazione, dalle politiche del lavoro alla sanità, dalla pubblica amministrazione agli investimenti strategici, configurando così una vera e propria politica industriale di medio periodo.
Un primo fronte è quello del mercato del lavoro, ambito nel quale il legislatore ha voluto introdurre meccanismi di protezione e di monitoraggio. L’articolo 11 sancisce che l’intelligenza artificiale debba essere utilizzata per migliorare le condizioni di lavoro e non per comprometterle, vincolando imprese e datori di lavoro a principi di sicurezza, trasparenza e rispetto della dignità umana. Contestualmente, l’istituzione di un Osservatorio sull’adozione dell’AI nel mondo del lavoro (art. 12) conferisce al Ministero del lavoro un ruolo strategico di sorveglianza, formazione e orientamento delle politiche attive. In prospettiva, questo organismo potrà costituire uno strumento decisivo per anticipare i fenomeni di polarizzazione occupazionale che l’automazione algoritmica tende a generare: da un lato l’espansione di settori ad alta intensità di conoscenza, dall’altro l’esposizione di mansioni routinarie e poco qualificate a rischi di sostituzione. Entro il 2030 sarà cruciale comprendere se l’Italia sarà in grado di trasformare questa dinamica in opportunità di riqualificazione professionale e di crescita delle competenze digitali.
Un secondo fronte decisivo riguarda la pubblica amministrazione. L’articolo 14 del DDL stabilisce che l’AI debba essere introdotta nei procedimenti amministrativi per aumentarne efficienza, qualità e trasparenza. L’innovazione viene qui intesa come fattore abilitante della semplificazione burocratica e della riduzione dei tempi di risposta ai cittadini e alle imprese. Tuttavia, l’elemento più delicato riguarda la tracciabilità delle decisioni: il legislatore sottolinea che la responsabilità rimane sempre in capo alla persona, evitando derive di delega automatica alle macchine. Nei prossimi anni la sfida sarà duplice: sviluppare piattaforme interoperabili e sicure, in linea con la migrazione al Polo Strategico Nazionale, e al tempo stesso garantire un linguaggio comprensibile e inclusivo verso i cittadini, per prevenire nuove disuguaglianze digitali. In assenza di un’effettiva accountability algoritmica, il rischio sarebbe quello di un deficit di fiducia nelle istituzioni.
Non meno rilevante è la dimensione industriale e degli investimenti strategici. L’articolo 23 autorizza fino a un miliardo di euro in equity e quasi equity per piccole e medie imprese innovative e start-up attive nei settori dell’intelligenza artificiale, della cybersicurezza e del calcolo quantistico. Si tratta di un impegno senza precedenti, che guarda alla creazione di campioni nazionali in filiere ad altissimo contenuto tecnologico, con un’attenzione specifica a 5G, edge computing, architetture software aperte e Web 3. Nel medio periodo, il successo di queste misure dipenderà dalla capacità di attrarre capitale privato, di favorire la collaborazione tra ricerca e impresa e di trattenere in Italia talenti che oggi guardano con interesse alle grandi piattaforme globali. Il rischio opposto è la frammentazione di poli tecnologici non competitivi a livello internazionale.
Il DDL affronta anche il tema delle tutele giuridiche, introducendo nuove disposizioni penali per la diffusione di deepfake e la manipolazione di contenuti generati da AI, con pene fino a sette anni di reclusione. Si tratta di un segnale forte in un contesto in cui la disinformazione digitale e l’uso malevolo delle tecnologie generative rischiano di erodere la qualità del dibattito pubblico e la sovranità informativa. In prospettiva, la sfida sarà garantire un equilibrio tra repressione delle condotte illecite e non eccessiva rigidità normativa, che potrebbe soffocare la sperimentazione e l’innovazione.
A livello di governance, l’articolo 19 introduce la Strategia nazionale per l’intelligenza artificiale, con compiti di coordinamento e monitoraggio affidati alla Presidenza del Consiglio e con il coinvolgimento delle Autorità nazionali designate: l’Agenzia per l’Italia digitale (AgID) e l’Agenzia per la cybersicurezza nazionale (ACN). Il disegno complessivo mira a creare una cabina di regia stabile e a favorire la cooperazione pubblico-privato. Entro cinque anni si potrà valutare se questo modello sarà in grado di incidere realmente sulle traiettorie di sviluppo, evitando sovrapposizioni burocratiche e dispersioni di risorse.
Nel complesso, il DDL si presenta come un tentativo di mediazione tra principi e realtà, tra etica e competitività, tra tutela dei diritti e promozione di nuove industrie. Gli effetti nel medio periodo potranno essere letti su quattro assi principali. Primo, il mercato del lavoro, dove sarà decisiva la capacità di trasformare il rischio di sostituzione in occasione di riqualificazione. Secondo, la pubblica amministrazione, che potrà diventare laboratorio di fiducia digitale se saprà adottare algoritmi trasparenti e strumenti di controllo umano. Terzo, l’ecosistema industriale, che ha davanti a sé l’occasione di costruire una filiera autonoma e resiliente nelle tecnologie emergenti. Quarto, la dimensione etico-giuridica, che potrà rafforzare i diritti digitali dei cittadini, a partire dal principio di non discriminazione algoritmica.
Guardando al 2030, l’Italia si trova dunque a un bivio: diventare attore protagonista di una stagione di innovazione responsabile e inclusiva, oppure restare in una posizione marginale, subendo modelli e soluzioni decise altrove. Il DDL getta le basi di un percorso; la sua effettiva riuscita dipenderà dalla capacità di tradurre i principi in politiche concrete, capaci di tenere insieme sviluppo, diritti e coesione sociale. È in questa prospettiva che si giocherà la credibilità del nostro Paese nell’era dell’intelligenza artificiale.