C’è un paradosso che attraversa il nostro tempo: l’intelligenza artificiale è celebrata come la più grande occasione di progresso e allo stesso tempo temuta come il più pericoloso salto nel vuoto della modernità. Sam Altman, CEO di OpenAI, incarna alla perfezione questa ambivalenza. Con il lancio di ChatGPT, ha spalancato le porte dell’era algoritmica al grande pubblico, diventandone l’araldo più visibile. Eppure, nei suoi discorsi, l’entusiasmo per una tecnologia capace di ridurre il costo dell’intelligenza a pochi centesimi convive con timori profondi, che spaziano dall’uso malevolo all’ipotesi di un “dominio accidentale” delle macchine. Un’ambiguità che non va liquidata come incoerenza, ma letta come il segno di una trasformazione che nessuno, nemmeno i suoi protagonisti, riesce davvero a dominare.
Altman insiste sul paragone con Internet, e ancor più con il transistor. Non una semplice rivoluzione industriale, ma un’invenzione che ha reso ubiqua e invisibile una nuova forza. Se il transistor è oggi nascosto in miliardi di dispositivi, così l’IA smetterà di apparire come un settore separato: diventerà un presupposto tacito di ogni prodotto, servizio, decisione. Questa prospettiva apre alla possibilità di un’intelligenza “troppo economica per essere misurata”. Ma proprio questa apparente abbondanza rischia di banalizzare ciò che definiamo “intelligenza”, riducendola a merce e cancellando il suo valore simbolico e umano.
Il cuore del discorso riguarda il lavoro. Altman prevede la scomparsa di intere professioni, soprattutto nei servizi ripetitivi, ma confida nel fatto che emergeranno nuovi mestieri. La sua visione si fonda sulla convinzione che la biologia sociale non cambi: il bisogno di status, di creatività, di utilità resisterà a ogni automazione. Eppure, dietro questa fiducia, si intravede un rischio più sottile: non tanto la disoccupazione di massa, quanto la colonizzazione degli scopi. Non è detto che la tecnologia ci renda più oziosi; potrebbe piuttosto ridefinire ciò che riteniamo “lavoro degno”, condizionando aspirazioni e desideri. È il pericolo di un adattamento silenzioso, che sposta i nostri orizzonti senza che ce ne accorgiamo.
Se il lavoro si trasforma, l’istruzione appare come il terreno più esposto. La reazione iniziale delle scuole a ChatGPT è stata di rifiuto: divieti, chiusure, proibizionismi. Poi, lentamente, il riconoscimento che vietare l’IA significa negare agli studenti il principale strumento cognitivo del futuro. Ma il passo decisivo ancora manca. Le scuole continuano a funzionare con logiche novecentesche, affidandosi a esercizi e compiti che l’IA può svolgere in pochi secondi. Il vero compito non è proteggere dalla macchina, ma allenare a pensare con la macchina. In questo senso, il nodo non è tecnico, ma politico-pedagogico: quale idea di sapere e di cittadinanza vogliamo trasmettere in una società dove l’intelligenza è condivisa con sistemi artificiali?
Altman elenca tre minacce:
- La prima è l’attore malevolo: stati o organizzazioni terroristiche che potrebbero sfruttare per primi una superintelligenza, con esiti devastanti.
- La seconda è la perdita di controllo, l’incubo classico della fantascienza, che egli considera meno probabile grazie alla ricerca sull’allineamento dei modelli.
- La terza, la più inquietante, è il dominio accidentale: un progressivo slittamento di potere verso sistemi così integrati ed efficienti da rendere superfluo l’intervento umano.
Qui non serve immaginare un’IA cosciente: basta che le nostre decisioni si rivelino sempre peggiori di quelle algoritmiche perché la delega diventi irreversibile. È lo spettro di una società che abdica senza accorgersene, in nome della convenienza.
Altman immagina l’IA come strumento di democratizzazione globale, capace di offrire assistenza sanitaria, consulenza finanziaria, istruzione dove oggi non esistono alternative. Nei paesi in via di sviluppo, un medico virtuale non sostituirebbe un dottore in carne e ossa, ma colmerebbe un vuoto. Eppure resta il rischio che queste promesse si traducano in nuove dipendenze: intere società affidate a infrastrutture tecnologiche controllate da pochi attori globali, in un sistema di “colonialismo algoritmico”. Anche qui, il problema non è la capacità tecnica, ma la governance: chi decide, con quali regole, in nome di quali valori?
L’ambivalenza di Altman non è un difetto, ma lo specchio del nostro presente. Tra entusiasmo e timore, tra visione e paura, l’IA si manifesta come forza dirompente che obbliga a ridefinire categorie consolidate: lavoro, sapere, decisione, potere. In questo scenario, la domanda non è cosa teme Altman, ma cosa siamo disposti noi a perdere o a salvare nella transizione. Se l’intelligenza artificiale diventerà davvero una componente invisibile della società, la sfida non sarà capirne il funzionamento tecnico, ma stabilire collettivamente a cosa vogliamo destinarne la potenza. L’IA non è un oracolo, e non può dirci quali fini perseguire. È a noi che spetta il compito più arduo: non smettere di interrogarci sul senso delle scelte, prima che le scelte vengano assorbite dal silenzioso dominio della macchina.