Nel cuore pulsante delle tecnologie linguistiche contemporanee si nasconde un paradosso che solo in apparenza è un errore: l’allucinazione dei modelli di Intelligenza Artificiale. Con questo termine — mutuato dal lessico clinico e applicato per analogia — si definisce la generazione da parte dei modelli linguistici di contenuti che, pur formalmente plausibili e sintatticamente corretti, risultano infondati, imprecisi o del tutto inventati. Non si tratta di un’anomalia tecnica, ma della manifestazione fisiologica del funzionamento probabilistico e statistico dei Large Language Models (LLM).
La recente analisi pubblicata su Linkiesta il 25 luglio 2025 evidenzia proprio questo punto: l’allucinazione non è l’eccezione, ma la regola. L’output di un modello come ChatGPT non è il risultato di un processo razionale o logico-deduttivo, bensì di una previsione statistica: data una sequenza di parole, quale sarà quella più probabile da generare? Tale principio — il cuore stesso del transformer architecture e del self-attention mechanism — consente performance notevoli in termini di coerenza stilistica e varietà lessicale, ma non può garantire verità o affidabilità epistemica.
L’errore di fondo — spesso condiviso anche nei dibattiti pubblici — è l’attribuzione a questi sistemi di una comprensione semantica del linguaggio. In realtà, i modelli linguistici non possiedono né un’intenzionalità né una coscienza del significato. Come ha spiegato Emily M. Bender nella sua celebre formula, si tratta di “stochastic parrots”, pappagalli probabilistici in grado di ripetere combinazioni linguistiche apprese da una gigantesca mole di testi, senza sapere nulla del mondo che quelle parole descrivono.
Questo spiega perché un modello possa affermare, con grande sicurezza, che il Premio Nobel per la Pace 2023 sia stato assegnato a una persona inesistente, o che una certa legge italiana sia stata approvata in una data errata. Il linguaggio generato è verosimile, ma non necessariamente vero. I modelli non mentono: semplicemente, non sanno. E questa ignoranza strutturale si traduce in allucinazione sistemica, soprattutto in assenza di un grounding esterno, cioè di un collegamento diretto con basi di conoscenza verificabili e aggiornate (knowledge bases, database, documenti ufficiali).
Le implicazioni per il mondo della conoscenza, della comunicazione pubblica e della produzione scientifica sono profonde. In un’epoca in cui il testo viene generato automaticamente, la capacità di valutare criticamente le fonti, riconoscere le manipolazioni sintattiche e distinguere l’apparenza dalla sostanza diventa centrale. L’intelligenza artificiale, in questa fase, non può essere lasciata a se stessa. Deve essere costantemente sottoposta a verifica umana, soprattutto nei contesti sensibili come la sanità, il diritto, la ricerca scientifica e l’amministrazione pubblica.
Una delle possibili risposte al problema è l’adozione di architetture ibride, in cui i modelli LLM siano affiancati da moduli di retrieval basati su fonti affidabili, oppure vincolati da sistemi di validazione automatica. Tuttavia, anche questi approcci (ad esempio i Retrieval-Augmented Generation, RAG) non sono esenti da rischi: i modelli possono comunque sintetizzare male le fonti o estrapolare conclusioni scorrette da dati corretti.
Nel contesto di una crescente fiducia nell’output automatico, diventa urgente proporre una pedagogia dell’incertezza. Chi interagisce con questi strumenti — sia esso un cittadino, un giornalista, un docente o un funzionario pubblico — deve essere consapevole che l’IA non offre risposte, ma simulazioni di risposte. A fare la differenza è la capacità umana di discernere, correggere, integrare. Di riappropriarsi, cioè, della funzione critica della conoscenza.
L’illusione che modelli autoregressivi possano sostituire la verifica, l’indagine e il dubbio — ciò che in filosofia è l’essenza stessa della ricerca — è forse il vero rischio sistemico dell’era dell’Intelligenza Artificiale.
Azzerare le allucinazioni è impossibile perché significherebbe annullare la natura stessa di questi modelli: quella di generatori di linguaggio statistico, non di motori epistemologici. È una lezione che dobbiamo imparare in fretta, prima che la forma ci faccia dimenticare la sostanza. L’Intelligenza Artificiale può essere uno strumento potente, ma solo se resta nella mani di una intelligenza umana vigile, competente e critica.