Un tratto caratteristico del dibattito contemporaneo sull’intelligenza artificiale è la difficoltà a prevedere la velocità con cui le tecnologie maturano. Per decenni ci siamo abituati a innovazioni incrementali e relativamente governabili; oggi, invece, assistiamo a salti improvvisi che trasformano interi settori in pochi mesi. È in questo contesto che il pensiero di Ray Kurzweil, noto per aver proposto l’idea di “singolarità tecnologica”, merita una lettura meno sensazionalistica e più operativa: non come profezia, ma come strumento di analisi.
Con il concetto di “legge dei ritorni accelerati”, Kurzweil sostiene che il progresso tecnologico non segue un andamento lineare, bensì una curva esponenziale in cui ogni generazione di innovazione diventa il motore di accelerazioni successive. La sua visione non si ferma al calcolo o all’AI: comprende la bioingegneria, le nanoscienze, le interfacce neurali e tutte le discipline che convergono nel modificare le capacità della mente e del corpo umano. Ed è proprio questa convergenza a costituire la chiave del suo pensiero: ciò che evolve non è solo una tecnologia, ma la struttura stessa dell’intelligenza nella società. Non è un caso che molte delle tappe previste da Kurzweil negli anni Duemila riguardassero livelli di performance oggi sotto i nostri occhi: modelli linguistici capaci di comprendere e generare testo, sistemi di visione artificiale dotati di riconoscimento contestuale, algoritmi generativi multimodali utilizzati nella creatività, nel design e nella produzione. Il salto avvenuto tra il 2022 e il 2025, con la diffusione di sistemi generalisti e agenti autonomi, ha dimostrato che l’adozione può essere persino più rapida dell’attesa. Non siamo ancora di fronte a un’intelligenza “di livello umano”, ma la distanza si è accorciata in un tempo troppo breve per essere ignorata. È qui che la bussola di Kurzweil diventa interessante: la sua vera intuizione non sta tanto nel dire quando raggiungeremo la singolarità, quanto nel suggerire dove guardare per capire se ci stiamo avvicinando a una discontinuità. La traiettoria della capacità di calcolo, la diminuzione dei costi per trattare e sequenziare informazione biologica, lo sviluppo di interfacce uomo-macchina: sono questi i campi dove un improvviso avanzamento può cambiare tutto. E se la storia degli ultimi anni ci insegna qualcosa, è che le discontinuità arrivano mentre guardiamo altrove.
Il problema, allora, non è decidere se credere o meno alla data del 2045: il problema è dotare le istituzioni di strumenti per anticipare gli effetti di trasformazioni che potrebbero essere irreversibili. Da questo punto di vista, la visione di Kurzweil si rivela preziosa per la costruzione delle politiche pubbliche europee e nazionali. L’AI Act, entrato in vigore nel 2024, ha finalmente introdotto obblighi di governance e valutazione dei rischi calibrati sulle applicazioni più critiche. Il nuovo regolamento sull’identità digitale europea (eIDAS 2.0) permette di immaginare una PA in cui identità, attributi e fiducia dialogano in modo sicuro con sistemi intelligenti, aprendo alla possibilità di servizi pubblici cognitivo-assistiti. Persino lo sviluppo di modelli open, infrastrutture di data space e piattaforme europee di supercalcolo può essere letto come preparazione a un futuro che non aspetta i tempi della politica. La domanda che affrontiamo non è “avremo un’AGI entro il 2029?”, ma “la nostra democrazia sarà pronta a governare un’AI che cresce in modo esponenziale?”. Questa è la vera differenza tra vedere la singolarità come una predizione e considerarla come un’ipotesi di lavoro. Se affidiamo la direzione del cambiamento alle sole forze del mercato, rischiamo una società in cui i vantaggi cognitivi sono concentrati in poche mani. Se invece adottiamo la logica dell’anticipazione — adottando regole, infrastrutture di fiducia e politiche educative all’altezza — la singolarità diventa un’occasione per rafforzare diritti e cittadinanza, anziché eroderli.
Naturalmente, le critiche restano fondamentali: non sappiamo se le curve esponenziali possano continuare per sempre, né se la coscienza o la generalità dell’intelligenza siano raggiungibili attraverso il semplice aumento di dati e potenza di calcolo. Ma la prudenza non può diventare una ragione per l’inazione. Se la storia tecnologica degli ultimi vent’anni ci ha insegnato qualcosa, è che chi arriva tardi paga un prezzo non solo economico, ma democratico. Pensare con Kurzweil non significa abbracciare un destino inevitabile. Significa attrezzarsi per navigare un futuro che accelera. Significa costruire capacità istituzionali, alfabetizzazione algoritmica, vigilanza e responsabilità diffusa. Significa, soprattutto, considerare l’intelligenza artificiale non come un semplice strumento, ma come una trasformazione della nostra infrastruttura cognitiva collettiva.
Chi governa questa trasformazione governerà il futuro. Chi la subisce, correrà sempre dietro. La singolarità, allora, non è una data nel calendario: è la misura della distanza tra il mondo che vorremmo e il mondo che rischiamo di trovare se non impariamo, fin d’ora, ad anticipare le discontinuità.