Nella giungla del discorso pubblico sull’intelligenza artificiale, più che competenze fioriscono personaggi. Figure ricorrenti, stereotipi parlanti che incarnano tribù intellettuali incapaci di misurarsi con la natura reale dei modelli linguistici generativi. Non siamo di fronte a una semplice ignoranza, ma a un bisogno di appartenenza: l’AI diventa specchio deformante dove ciascuno proietta la propria ansia, ideologia o narcisismo.
Primo tra tutti, il tecnoentusiasta riscattato: per anni ha navigato ai margini della competenza, ora finalmente la macchina gli risponde in modo forbito, e questo gli basta. Confonde la plausibilità con la verità. Per lui, l’output ben scritto è conoscenza. È il trionfo dell’illusione sintattica sull’epistemologia. Poi c’è il supercazzolista sistemico, che costruisce teorie roboanti su “coscienze emergenti” e “simbiosi computazionale”, ma cita solo blog e TedTalk. Si muove in un gergo senza fondamento, dove i token sono “neuroni” e le correlazioni “ragionamenti”. La sua forza? Il fascino della complessità esibita. Il terzo personaggio è il filosofante post-tutto, che non distingue l’ontologia da una battuta di spirito. Per lui l’AI è solo un pretesto per ridefinire concetti: mente, intelligenza, verità, talvolta anche il cibo. Parla di “linguaggio performativo” ma non sa cos’è un loss function. L’importante è che nessuna domanda abbia risposta, solo altre domande. Subito dopo, il luddista apocalittico: urla al mostro, teme l’estinzione, evoca Asimov e Orwell in un’unica invettiva. Non distingue GPT da HAL9000 ma è certo che l’umanità sia condannata. L’AI è il nuovo Leviatano, anche se non ha mai letto né un paper né una documentazione tecnica. Il più tenero è forse l’umanista sentimentale. Difende la “poesia dell’umano”, ma usa ChatGPT per le bio e le e-mail. Non conosce l’embedding, ma lo sente minaccioso. È convinto che il pensiero autentico sia distinguibile, anche quando non riesce a scriverlo meglio di un LLM. Poi abbiamo il professore tardivo, che ha scoperto l’AI nel 2023 e ora la riporta a Peirce, Vico o Aristotele. Tiene corsi sull’etica dell’algoritmo senza sapere cos’è un transformer. Le sue slide citano Wittgenstein, mai un paper scientifico. Infine, il prompt engineer autoproclamato. Vende “segreti” per domare il modello, ignaro che spesso il risultato non dipende dal prompt ma dalla statistica. Il suo potere nasce dalla novità: è l’alchimista dell’era digitale.
Tutti questi atteggiamenti hanno una radice comune: parlano dell’effetto, mai della struttura. Scambiano l’apparenza per la sostanza, la sintassi per il senso. Ignorano che i LLM non comprendono, non ragionano, non decidono. Completano sequenze. Niente di più, ma nemmeno di meno. Smascherare queste maschere non significa denigrare. Significa prepararsi a un uso critico, consapevole e non mitizzato di una tecnologia potente. L’AI non è magia, non è coscienza, non è giudizio. È linguaggio in movimento. Sta a noi decidere se usarlo come specchio o come strumento.