Quando l’intelligenza artificiale entra nel dominio della sicurezza informatica, le categorie tradizionali del rischio sembrano improvvisamente inadeguate. Il recente AI Threat Landscape 2025, elaborato dal Cybersecurity Competence Center di Maticmind e presentato alla Camera dei Deputati, offre una fotografia nitida — e inquietante — della trasformazione in atto: l’IA non è più soltanto un oggetto da difendere, ma un soggetto attivo delle minacce.
Secondo il Rapporto, gli attacchi informatici basati su tecniche di IA sono cresciuti del 47 % rispetto al 2024, con una proiezione globale di oltre 28 milioni di incidenti entro fine 2025. In Italia, quasi il 40 % degli episodi gravi registrati nel primo semestre dell’anno ha coinvolto strumenti di intelligenza artificiale generativa. Non è solo un incremento quantitativo: è un mutamento di natura. L’IA ha ampliato la superficie d’attacco a domini finora marginali — i prompt, i dataset, i modelli pre-addestrati, l’intera catena di fornitura algoritmica — che diventano ora bersagli, o peggio, armi. L’attaccante non si limita più a sfruttare vulnerabilità note: costruisce contenuti ingannevoli, codici malevoli o identità sintetiche, in modo automatico e scalabile. È la nascita della machine-enabled threat economy, un’economia sotterranea in cui gli agenti artificiali moltiplicano la produttività del crimine informatico.
Il Rapporto mostra come l’80 % delle e-mail di phishing e il 91 % delle campagne di spear-phishing utilizzi oggi modelli linguistici di grandi dimensioni (LLM), capaci di generare messaggi perfettamente adattati al contesto e alla lingua del bersaglio. È un salto di qualità che vanifica molti sistemi di difesa basati su pattern o filtri testuali. Nello stesso tempo, i deepfake — video, voci e immagini sintetiche create da IA — sono passati da circa 500.000 casi nel 2023 a una stima di oltre 8 milioni nel 2025. Si entra così nell’era della manipolazione cognitiva di massa, dove la distinzione fra vero e falso non è più percepibile senza strumenti tecnici avanzati. L’impatto economico è altrettanto rilevante. Il costo medio di una violazione potenziata da IA si attesta a 5,72 milioni di dollari, con un aumento del 13 % rispetto all’anno precedente. Ma al di là dei numeri, il dato cruciale è la simmetria strategica che si va creando: se l’attaccante impiega l’IA per superare i limiti umani di velocità e scala, anche la difesa dovrà necessariamente diventare AI-native. È la tesi centrale del Rapporto: l’era degli algoritmi offensivi impone l’adozione di algoritmi difensivi, capaci di apprendere, adattarsi e reagire in tempo reale. Questa nuova generazione di sistemi di sicurezza — ibridi, adattivi, autonomi — potrà contrastare gli attacchi solo se supportata da un ecosistema di governance coerente. Maticmind sottolinea infatti come il confine tra cybersecurity e AI governance si stia dissolvendo. L’applicazione congiunta del Regolamento (UE) 2024/1689 “AI Act” e della Direttiva (UE) 2022/2555 “NIS 2” introduce per la prima volta una visione integrata: la sicurezza dei sistemi non può prescindere dalla sicurezza dei modelli che li alimentano. Bias, prompt-injection, data-poisoning o model leakage non sono più incidenti di laboratorio, ma vettori di minaccia sistemica.
Il Rapporto individua inoltre un rischio interno crescente: la cosiddetta “shadow AI”, cioè l’uso non governato di strumenti di intelligenza artificiale da parte dei dipendenti o dei fornitori. Si tratta di un fenomeno che espone le organizzazioni alla perdita di dati sensibili, alla generazione non controllata di contenuti e a vulnerabilità nella catena di comando digitale. Ogni modello, ogni prompt, ogni interfaccia generativa può diventare una porta d’ingresso non sorvegliata. Per la Pubblica Amministrazione e per i soggetti che gestiscono infrastrutture critiche — inclusi quelli impegnati in processi complessi di rigenerazione urbana e bonifica ambientale, come il SIN Bagnoli-Coroglio — le implicazioni sono evidenti. Le piattaforme di monitoraggio, i flussi informativi, i sistemi di gestione documentale e decisionale che integrano componenti di IA devono essere valutati come asset critici. Ciò comporta la necessità di audit tecnici periodici, di AI risk assessment e di formazione del personale per riconoscere gli usi impropri. La sicurezza, in questo senso, non è più un servizio ausiliario ma una dimensione costitutiva della governance digitale.
Il Threat Landscape 2025 si distingue anche per un messaggio positivo: l’IA non è solo un rischio, ma una leva di resilienza. Gli stessi algoritmi che generano minacce possono, se ben progettati e addestrati, rafforzare la capacità di difesa: identificare anomalie, correlare eventi, anticipare comportamenti ostili. L’equilibrio dipenderà dalla qualità dell’etica incorporata nei modelli e dalla capacità delle istituzioni di stabilire regole chiare, verificabili, trasparenti. La sicurezza informatica dell’era dell’intelligenza artificiale non è più soltanto una questione di tecnologia. È una questione di fiducia. Fiducia nelle istituzioni che governano i dati, fiducia nei modelli che producono decisioni, fiducia nei processi che garantiscono la trasparenza. In assenza di questa fiducia — e dei meccanismi per tutelarla — nessuna difesa sarà sufficiente.
L’intelligenza artificiale, osserva in chiusura il Rapporto, “ha spostato la frontiera del rischio dal perimetro informatico al perimetro cognitivo”. Difendere una rete significa oggi difendere la capacità stessa di distinguere il vero dal verosimile, l’informazione dall’inganno, l’umano dal simulacro. È un compito che richiede non solo firewall più intelligenti, ma coscienze digitali più consapevoli. In questo spazio ibrido tra codice e mente, si gioca la nuova sfida della sicurezza: quella di restare umani, anche mentre impariamo a difenderci da ciò che di umano abbiamo insegnato alle macchine.