Il confronto pubblico sull’intelligenza artificiale sembra oggi bloccato dentro un vicolo cieco. Da un lato chi riduce i modelli linguistici a “pappagalli stocastici”, meri generatori di correlazioni prive di senso; dall’altro chi li descrive come “menti emergenti”, germogli di una nuova coscienza artificiale. È una disputa che appare densa, ma che in realtà produce più polarizzazione che conoscenza. L’attenzione resta fissata sulla presunta “mente della macchina”, mentre il punto cruciale riguarda l’impatto dei testi generati sulle nostre pratiche di giudizio, su come collettivamente definiamo ciò che è vero, affidabile, degno di fiducia. Ma un passaggio nuovo circa queste discussioni va fatto sulla cosiddetta etichetta “System 0”.
Vale la pena chiarire.
Il termine è stato introdotto non in una correspondence apparsa su Nature Human Behaviour. Non si tratta dunque di un paper con dati e risultati verificati, ma di brevi contributi pensati per stimolare il dibattito. Nel merito, l’idea è di collocare l’interazione uomo–AI come “System 0”, anteponendolo alla distinzione classica del premio Nobel Daniel Kahneman, ovvero prima dei System 1 (pensiero rapido, intuitivo, automatico) e System 2 (pensiero lento, deliberativo, razionale).
Una trovata suggestiva che richiama un quadro noto e lo estende, dando l’impressione di una continuità teorica. Ma la contraddizione è evidente. Del resto gli stessi autori riconoscono che i modelli linguistici non hanno semantica, non comprendono e non producono meaning-making. Non sono sistemi cognitivi: generano testi plausibili su base statistica. Collocarli accanto a veri sistemi della mente equivale a spostare un’analogia retorica sul terreno di una teoria senza dati.
Ed è proprio ai dati che occorre guardare. Una meta–analisi pubblicata anch’essa su Nature Human Behaviour (Vaccaro, Almaatouq & Malone, 2024) ha esaminato oltre cento esperimenti sull’interazione uomo–AI. Il risultato è netto: la combinazione non garantisce prestazioni sistematicamente superiori. In molti casi il miglior singolo – che sia l’umano esperto o l’AI – supera la collaborazione. Questo significa che l’interazione non introduce un nuovo “sistema cognitivo”, ma produce piuttosto un contesto ibrido, variabile e contingente, in cui capacità e limiti si sommano o si annullano a seconda delle condizioni. Parlare di System 0 come di una nuova architettura della mente rischia quindi di essere più un costrutto concettuale che una teoria fondata.
Il nodo empirico resta chiaro: la trasformazione non avviene nella macchina, ma in chi con quella macchina interagisce. Uno studio pubblicato su PNAS nel 2024 ha documentato come la comunicazione online, già prima dell’arrivo degli LLM, mostrasse un trend di impoverimento lessicale e convergenza stilistica. Gli utenti, spinti dalla logica dei social e dalla ricerca di visibilità algoritmica, tendevano a ridurre varietà e complessità linguistica. I modelli generativi non fanno che accelerare questo processo.
Ecco perché è essenziale distinguere tra etichette e operazionalizzazioni. “System 0”, “mente emergente”, “pappagallo stocastico” sono buzzword: termini accattivanti, che creano l’illusione di una svolta concettuale ma non sostituiscono le verifiche empiriche. La vera sfida è costruire metriche robuste, protocolli comparabili e dati solidi per capire come cambiano i processi cognitivi e decisionali quando si interagisce con sistemi di generazione linguistica.
Il rischio concreto non è filosofico ma pratico:
testi convincenti ma falsi;
plausibilità scambiata per verità;
delega della fiducia a sistemi privi di criteri epistemici;
riduzione della diversità linguistica, e dunque concettuale.
È su questo terreno che si gioca il futuro del dibattito: non sulla presunta coscienza delle macchine, ma sulla nostra capacità collettiva di ridefinire che cosa intendiamo per affidabilità e verità nell’era dei modelli generativi.