Quando interagiamo con un assistente AI come ChatGPT o Claude, lo facciamo nella nostra lingua: italiano, inglese, francese, cinese. Ma la domanda che emerge con forza è un’altra, più profonda: in che lingua “pensa” davvero un’intelligenza artificiale? La risposta, come mostrato da uno studio pubblicato nel marzo 2025 da Anthropic, è sorprendente: l’AI non pensa in una lingua naturale, bensì costruisce rappresentazioni concettuali astratte, indipendenti dal codice linguistico utilizzato dall’utente.
Il modello Claude 3.5 Haiku, al centro della ricerca, dimostra di attivare gli stessi “moduli interni” per parole semanticamente equivalenti (“piccolo”, “small”, “petit”), a prescindere dalla lingua. Questo suggerisce l’esistenza di una semantica latente, un “linguaggio interiore” fatto non di parole ma di vettori di significato che si connettono tra loro in uno spazio multidimensionale. Si tratta di una dinamica simile a quanto avviene nei cervelli bilingui, dove l’attivazione concettuale precede la selezione della lingua.
Ma se il modello riesce a generalizzare i concetti al di là della lingua di input, rimane difficile comprendere come e perché selezioni certe risposte. La “black box” della generazione linguistica resta in gran parte opaca, come ha ammesso lo stesso CEO di Anthropic. E proprio su questo punto si innestano le riflessioni etiche più rilevanti.
Come evidenziato dai contributi della rivista AI and Ethics (Vol. 4, Issue 3; Vol. 5, Issue 1), la questione non è solo tecnica, ma epistemologica: se non comprendiamo il “come” dei processi decisionali algoritmici, rischiamo di fidarci di sistemi che non sappiamo controllare, soprattutto in contesti sensibili come la medicina, la giustizia o l’educazione. Il multilinguismo algoritmico, quindi, non è soltanto una conquista tecnica. È anche una sfida di trasparenza e responsabilità. Comprendere il modo in cui l’AI organizza i concetti, li trasforma in risposte e li restituisce nella lingua dell’utente è essenziale per costruire sistemi più affidabili, equi e culturalmente inclusivi.
Il futuro della linguistica computazionale non si giocherà solo sulle prestazioni, ma sulla capacità di rendere visibile l’invisibile: la grammatica profonda delle macchine, quella che non parla, ma che struttura tutto ciò che diciamo.