Viviamo in un’epoca in cui le parole arrivano prima del pensiero. I testi si generano in pochi secondi, i saggi si sintetizzano con un click, e l’“esperto” si autoproclama tale dopo aver letto (o fatto leggere all’IA) una manciata di abstract. Se durante la pandemia da Covid-19 abbiamo imparato a riconoscere l’infodemia – l’eccesso di informazioni che disorienta e disgrega – oggi ci troviamo a fronteggiare un fenomeno più subdolo: l’epistemia. Un’epidemia di contenuti che imitano la conoscenza senza mai raggiungerla. Un contagio di apparenze cognitive che si diffonde proprio grazie alla disintermediazione algoritmica.
L’Intelligenza Artificiale non ha abbassato la soglia della competenza. Ha semplicemente rimosso il cancello all’ingresso, rendendo il linguaggio tecnico un bene accessibile a chiunque. Ma cosa accade quando l’accesso non è accompagnato da formazione, da metodo, da verifica? Accade che ci si trovi circondati da specialisti improvvisati: oggi si occupano di AI, ieri di semiotica o di dieta mediterranea, domani magari di bioetica o geopolitica. Tutto è commentabile, tutto è sintetizzabile, tutto è scrivibile – purché abbia una forma riconoscibile.
Il riferimento al celebre effetto Dunning–Kruger – la distorsione cognitiva che porta i meno competenti a sopravvalutare le proprie capacità – è più che una metafora: è una diagnosi strutturale. Non siamo più solo in presenza di individui inconsapevoli dei propri limiti. Siamo dinanzi a un sistema che favorisce la sovraesposizione di chi ha meno strumenti, perché gli strumenti tecnici (ChatGPT, Gemini, Claude…) sono progettati per generare output stilisticamente impeccabili anche a fronte di input cognitivamente deboli.
La conoscenza, un tempo faticosa e stratificata, oggi appare come una superficie levigata. Ma dietro l’apparenza, spesso, c’è il vuoto: testi privi di fonti verificate, paper scritti attraverso riassunti automatici, confusione tra riviste accademiche e blog promozionali. Si dimentica che i modelli linguistici non sanno, non comprendono, non interpretano – riformulano, interpolano, approssimano. E nella migliore delle ipotesi semplificano. Nella peggiore, distorcono o inventano.
La parola ben scritta diventa il feticcio che legittima tutto, anche l’errore. E il rischio maggiore è che la società perda gli strumenti per distinguere l’opinione dal dato, la visione dalla dimostrazione, il commento dalla ricerca.
Ciò che stiamo vivendo è una vera e propria crisi epistemica. Il contenuto non è più sovrano: lo è l’output. Si scrive prima ancora di comprendere. Si pubblica prima di aver vagliato. Si diffonde un pensiero prima di averlo pensato. In questo contesto, l’intelligenza artificiale non è causa, ma catalizzatore. Ha accelerato una deriva già in atto: quella che confonde il sapere con la sua estetica.
Ma non c’è nulla di più pericoloso di un contenuto stilisticamente credibile ma epistemicamente vuoto. È l’equivalente cognitivo di una medicina esteticamente perfetta ma priva di principio attivo: inutile quando non tossica. La forma, da strumento al servizio della verità, diventa così maschera. E lo stile – fluido, articolato, seducente – finisce per zittire ogni esigenza di verifica.
È in questo scenario che l’alfabetizzazione statistica, logica e critica assume un valore imprescindibile. Non si tratta più solo di sapere usare l’IA, ma di saperla interpretare. Di porsi domande. Di esercitare il dubbio metodico, quello che distingue l’opinione dalla conoscenza, l’apparenza dalla sostanza.
Di fronte a tutto ciò, la missione di un progetto come AIgnosi.it diventa ancora più urgente. Non basta più informare: bisogna disintossicare. Smontare miti, verificare fonti, ricostruire contesti. Offrire strumenti cognitivi prima che scorciatoie espressive. In tempi in cui si può sembrare competenti senza esserlo, serve ridefinire cosa significhi davvero sapere.
Epistemia è una provocazione, ma anche un sintomo. Ci invita a riconoscere i nuovi pericoli del nostro tempo: non l’ignoranza, ma la sua simulazione. Non la mancanza di dati, ma l’incapacità di interpretarli. Non l’analfabetismo, ma l’iperscrittura algoritmica priva di fondamento.
Per questo, serve meno fuffa e più grammatica del pensiero. Serve insegnare non tanto a “parlare di IA”, ma a interrogare le sue condizioni, le sue fonti, i suoi limiti. Solo così potremo attraversare questa rivoluzione digitale senza cadere nella trappola della pseudocompetenza.
L’intelligenza artificiale non ha democratizzato il sapere. Ha democratizzato la sua imitazione. E in questo teatro di ombre ben scritte, occorre ritrovare la luce della conoscenza autentica. Perché la forma può anche sedurre. Ma solo il contenuto salva.