«L’IA non pensa, non capisce, non mente. Produce segni». La formula, volutamente provocatoria, ha il merito di spostare il discorso sull’intelligenza artificiale fuori dal terreno più scivoloso: quello dell’antropomorfismo. Ogni volta che diciamo che un modello linguistico “crede”, “vuole”, “sa”, “ragiona” o “mente”, stiamo trasferendo alla macchina categorie nate per descrivere soggetti dotati di esperienza, intenzione e coscienza. È una scorciatoia linguistica comprensibile, ma non innocente. Le parole con cui nominiamo una tecnologia contribuiscono a stabilire il modo in cui la usiamo, la temiamo, la regoliamo e le attribuiamo autorità. La proposta semiotica di Davide Picca, presentata alla Biennale Tecnologia e sviluppata nel saggio Not Minds, but Signs, invita a considerare i grandi modelli linguistici non come menti artificiali, ma come motori di produzione e riorganizzazione dei segni: sistemi capaci di generare testi plausibili, coerenti, talvolta sorprendenti, senza che questo implichi comprensione nel senso umano del termine.
Il punto non è ridimensionare l’impatto dell’AI, ma comprenderlo meglio. Un modello linguistico non accede al mondo come vi accede un corpo vivente, non ha memoria biografica, non possiede un orizzonte intenzionale, non abita la realtà attraverso bisogni, paure, responsabilità o desideri. Lavora dentro una semiosfera: un immenso ambiente di testi, codici, ricorrenze, stili, correlazioni e tracce culturali. In termini peirciani, produce il representamen, cioè la forma del segno; non possiede però l’oggetto come esperienza del mondo, mentre l’interpretante nasce nell’essere umano che legge, valuta, collega e attribuisce senso. Da qui discende una conseguenza decisiva: il significato non è nella macchina come proprietà interna, ma nella relazione tra output, contesto e interprete. L’AI non “dice” nel modo in cui dice una persona; dispone forme linguistiche che noi riconosciamo come sensate perché appartengono al nostro universo culturale.
Questa prospettiva dialoga con una parte importante della riflessione internazionale. Murray Shanahan ha messo in guardia dall’uso disinvolto di termini come “pensare” o “sapere” riferiti agli LLM, perché tali parole portano con sé un carico filosofico che rischia di produrre equivoci pubblici e scientifici. Emily Bender, Timnit Gebru e le altre autrici del celebre lavoro sugli “stochastic parrots” hanno mostrato che la fluidità linguistica dei modelli non coincide con una comprensione fondata, richiamando l’attenzione sui dataset, sui bias, sui costi sociali e ambientali e sulla responsabilità dei sistemi che amplificano linguaggio su larga scala. Stevan Harnad, già nel 1990, aveva formulato il problema del symbol grounding: come può un sistema che manipola simboli ancorare quei simboli a significati propri, e non soltanto a significati che provengono dalle menti umane?
La figura di HAL 9000, il computer di 2001: Odissea nello Spazio, resta per questo potentissima. Quando HAL dice a David di non poter eseguire un comando, noi spettatori avvertiamo una volontà, una menzogna, forse una paura. Ma quella reazione appartiene al nostro modo di interpretare il linguaggio, non necessariamente alla struttura interna della macchina. Il cinema anticipa qui un nodo contemporaneo: una voce coerente produce presenza, anche quando dietro quella presenza non vi è un soggetto. Ed è proprio questo il rischio culturale più profondo dell’AI generativa: non che le macchine pensino segretamente come noi, ma che noi siamo inclini a completarle con ciò che esse non hanno. Attribuiamo intenzione alla coerenza, coscienza alla fluidità, affidabilità alla forma, profondità alla probabilità.
Luciano Floridi ha definito questo passaggio come una forma di “agency without intelligence”: sistemi che possono agire nel mondo, mediare processi, orientare decisioni e produrre effetti senza possedere intelligenza nel senso umano, psicologico o coscienziale. È una distinzione essenziale. Una tecnologia può non comprendere e tuttavia incidere sulla comprensione umana. Può non mentire e tuttavia diffondere falsità. Può non avere intenzioni e tuttavia alterare istituzioni, mercati, scuole, redazioni, pubbliche amministrazioni e relazioni sociali. La responsabilità, dunque, non consiste nel cercare una mente nascosta dentro il modello, ma nel governare gli effetti pubblici dei segni che esso produce.
Per questo la semiotica non è un lusso accademico, ma una competenza civile. In un ambiente informativo sempre più popolato da testi sintetici, immagini generate, assistenti conversazionali e sistemi agentici, occorre imparare a distinguere tra produzione linguistica e comprensione, tra correlazione statistica e giudizio, tra risposta plausibile e conoscenza verificata. Il Regolamento (UE) 2024/1689 sull’intelligenza artificiale introduce, all’articolo 4, il principio dell’alfabetizzazione all’AI, chiedendo che fornitori e utilizzatori assicurino livelli adeguati di competenza per chi opera con questi sistemi; l’articolo 50 rafforza inoltre gli obblighi di trasparenza nelle interazioni con sistemi di AI e nei contenuti generati o manipolati artificialmente. È un segnale importante: la regolazione non può limitarsi alla sicurezza tecnica, ma deve includere la capacità sociale di interpretare ciò che le macchine producono.
L’intelligenza artificiale generativa, allora, non va trattata come una mente incompleta né come un semplice strumento neutro. È una tecnologia della significazione. Non pensa al posto nostro, ma entra nei nostri processi di pensiero. Non comprende il mondo, ma contribuisce a costruire i testi attraverso cui noi lo comprendiamo. Non mente come mente un essere umano, perché non possiede intenzione morale; e tuttavia può generare enunciati falsi, seducenti, autorevoli nella forma e fragili nella sostanza. È qui che si colloca la responsabilità umana: non nel domandarsi se la macchina abbia un’anima, ma nel sapere leggere i suoi segni. La sfida dell’AI non è soltanto tecnologica. È linguistica, culturale, educativa e democratica. Perché i segni, anche quando non hanno una mente dietro, possono cambiare il mondo davanti a noi.