Il lessico che accompagna l’intelligenza artificiale sembra costruito per suggestionare. Ogni nuova release di un modello linguistico si accompagna a proclami che oscillano tra l’entusiasmo e l’allarme, tra la promessa di un nuovo Rinascimento tecnologico e la paura di una sostituzione imminente dell’umano. Eppure, dietro questo frastuono comunicativo, la questione davvero decisiva rimane più sobria e più insidiosa: cosa accade quando iniziamo a delegare a questi sistemi il potere di giudicare?
Non è un problema marginale né una curiosità filosofica. Il ritorno economico atteso dagli investimenti miliardari delle big tech si regge proprio su questa ipotesi: che sia possibile affidare a una macchina porzioni crescenti di processi decisionali. Non soltanto l’automazione di compiti esecutivi, ma il trasferimento di frammenti di discernimento, di capacità valutativa, di scelta. È qui che si gioca la partita: sull’idea che il linguaggio convincente equivalga a ragionamento, che la fluidità sintattica possa essere scambiata per affidabilità cognitiva.
Chiunque abbia interagito con ChatGPT, Gemini o altri sistemi analoghi conosce l’effetto ipnotico di un testo che scorre senza inciampi, che sembra articolato e persino arguto. Ma proprio questa scioltezza diventa la trappola. La plausibilità prende il posto della verità, e la capacità di generare una frase ben costruita si confonde con l’esercizio di un giudizio fondato. La macchina non “comprende”: combina probabilità statistiche. Non “sceglie”: approssima schemi ricorrenti.
Il paradosso è che più il compito diventa complesso, più aumenta il margine d’errore del modello, perché lo spazio di interpolazione si allarga oltre ogni controllo. E, nello stesso tempo, più l’utente conosce poco l’argomento trattato, più la delega diventa cieca. Non ci accorgiamo di scivolare da un uso critico a una dipendenza implicita, in cui ciò che appare convincente diventa automaticamente accettabile.
Il problema non sta solo negli errori, che sono inevitabili in sistemi privi di grounding, cioè di un ancoraggio reale al mondo. Sta nel modo in cui smettiamo di interrogarci: non chiediamo più perché una risposta sia stata data, né secondo quali criteri sia stata costruita. L’atto del giudicare si dissolve nella superficie del linguaggio. E in questo slittamento c’è la vera sfida cognitiva e politica dei nostri tempi.
Delegare un compito a una macchina non è neutro. Non è un semplice “fare fare” al posto nostro. Significa accettare che i criteri della decisione siano fissati da procedure opache, da algoritmi che non esplicitano la propria logica. Quando chiediamo a un modello di classificare un testo, sintetizzare un report, stilare una graduatoria, gli stiamo concedendo un potere che non è linguistico, ma normativo: definire cosa conta, cosa va in cima e cosa in fondo, cosa rientra e cosa resta escluso.
Eppure il discorso pubblico continua a inseguire metafore rassicuranti o grandiose: la “mente estesa”, l’“abduzione”, l’“intelligenza collettiva” che si incarnerebbe nelle macchine. È un linguaggio che funziona bene come marketing, ma che non aiuta a comprendere i limiti reali dei sistemi. Anzi, rischia di occultarli. Senza un riscontro empirico, senza un metodo di valutazione trasparente, queste categorie restano poco più che slogan.
Occorre ribaltare la prospettiva. Non chiedersi se la macchina pensa, ma che cosa significa per noi, come società, affidarle pezzi di giudizio. La vera questione non è ontologica, ma politica: quale rapporto tra linguaggio e potere si ridisegna nel momento in cui i modelli diventano mediatori universali di informazioni, sintesi, raccomandazioni?
L’esperienza quotidiana mostra quanto sia facile scivolare nell’illusione. Un avvocato che consulta un LLM per redigere un testo può scambiare la forma coerente di un paragrafo per la solidità di un ragionamento giuridico. Un medico che utilizza un modello per esplorare possibili diagnosi può dimenticare che ciò che legge non è un ragionamento clinico, ma un’elaborazione di co-occorrenze linguistiche. Un giornalista che si affida a un sistema per riassumere documenti rischia di trovarsi davanti a una sintesi priva di criteri verificabili. In tutti questi casi, l’apparenza di rigore maschera l’assenza di un fondamento epistemico.
La sfida, allora, non è soltanto tecnica, ma educativa. Non si tratta di costruire macchine “più intelligenti”, ma di formare cittadini capaci di interagire con queste tecnologie senza abdicare al proprio giudizio. Una nuova alfabetizzazione critica è necessaria: imparare a distinguere la plausibilità dalla verità, il linguaggio dall’evidenza, il testo dalla giustificazione.
Se non affrontiamo questo nodo, rischiamo di normalizzare una delega senza controllo, in cui la fluidità linguistica diventa criterio sufficiente per affidare responsabilità. Non sarebbe la prima volta che la società confonde lo stile con la sostanza. Ma oggi la posta in gioco è più alta: riguarda la capacità collettiva di prendere decisioni informate in ambiti cruciali — dalla sanità al diritto, dalla finanza alla politica.
L’illusione di giudizio prodotta dall’IA non è soltanto un limite tecnico: è un problema culturale che investe il nostro rapporto con la conoscenza e con la verità. Per questo l’alternativa non è scegliere tra entusiasmo e diffidenza, tra abbracciare o respingere la tecnologia. È, piuttosto, imparare a conviverci senza cadere nella trappola della plausibilità. Pretendere trasparenza, sviluppare metodi di verifica, mantenere viva la responsabilità umana del giudizio.
Perché il rischio più grande non è che le macchine commettano errori — quello è certo. Il rischio è che smettiamo di domandarci come e perché siano arrivate a una conclusione. E che, accecati dalla perfezione apparente del linguaggio, rinunciamo a esercitare la nostra capacità critica. In quel momento, più che di intelligenza artificiale, dovremmo parlare di abdicazione.