Nel panorama contemporaneo della trasformazione digitale, il dibattito pubblico attorno all’intelligenza artificiale generativa appare sovente condizionato da una semantica dell’antropomorfismo che altera la percezione collettiva del fenomeno tecnologico. Quando si afferma che un modello “comprende” o “ragiona”, si compie una trasposizione indebita di categorie cognitive umane su architetture computazionali che operano esclusivamente mediante calcolo statistico. Per chi è chiamato a esercitare funzioni di ricerca, indirizzo o responsabilità amministrativa, tale slittamento semantico non è un dettaglio retorico, ma un problema di governo.
Smontare un Large Language Model significa restituirgli la sua natura effettiva: un sistema di trasformazioni lineari e non lineari applicate a rappresentazioni numeriche del linguaggio. Il primo passaggio di questa catena è la tokenizzazione. Attraverso algoritmi come il Byte Pair Encoding, il testo viene suddiviso in unità discrete, i token, che non coincidono necessariamente con parole intere, ma con segmenti statisticamente frequenti nei dati di addestramento. Il linguaggio umano, continuo e semanticamente stratificato, viene così ricondotto a una sequenza di indici numerici. Questa operazione non è neutra: la distribuzione dei token riflette la composizione linguistica del corpus di training e incorpora bias culturali e linguistici che incidono sulle performance del modello, specialmente nelle lingue meno rappresentate. Una volta discretizzato, il linguaggio entra nello spazio vettoriale degli embedding. Ogni token viene associato a un vettore in uno spazio ad alta dimensionalità, spesso dell’ordine di migliaia di dimensioni. In tale spazio, la prossimità geometrica tra vettori approssima la co-occorrenza statistica nei dati. Se termini come “rigenerazione” e “bonifica” risultano vicini, ciò non implica una comprensione dei processi urbanistici o ambientali sottesi, ma la sedimentazione matematica di pattern ricorrenti nei testi. La semantica del modello è dunque una semantica della correlazione, non del riferimento. Non vi è alcun ancoraggio diretto al mondo fisico o normativo; vi è soltanto una geometria delle frequenze.
Il cuore architetturale dei modelli di tipo Transformer, introdotto nel 2017 con il lavoro di Vaswani e collaboratori, è il meccanismo di self-attention. Esso consente a ciascun token di pesare gli altri token presenti nella sequenza, attraverso proiezioni lineari denominate query, key e value. Tale meccanismo permette di modellare dipendenze a lunga distanza e di integrare informazioni distribuite nel testo, rappresentando un avanzamento significativo rispetto alle precedenti reti ricorrenti. Tuttavia, l’efficacia ingegneristica della self-attention non deve essere confusa con un’attività logica o deliberativa. Il sistema non verifica la verità delle proposizioni, né dispone di criteri epistemici interni. Calcola compatibilità numeriche e seleziona configurazioni ad alta probabilità condizionata. L’ultimo stadio del processo è la cosiddetta next-token prediction. Il modello, giunto alla fine della sequenza di trasformazioni, produce una distribuzione di probabilità sull’intero vocabolario e seleziona il token successivo mediante un campionamento governato da parametri come la temperatura o il top-p. Non vi è accesso a una base di conoscenza strutturata né a un meccanismo di controllo fattuale intrinseco. Il fenomeno delle cosiddette allucinazioni non rappresenta un’anomalia contingente, bensì una proprietà strutturale di un sistema che ottimizza la plausibilità statistica e non la verità proposizionale. Per mentire occorrerebbe consapevolezza della falsità; l’LLM, al contrario, non possiede alcuna intenzionalità.
Questa chiarificazione tecnica assume rilievo particolare nel contesto normativo europeo. Il Regolamento (UE) 2024/1689, noto come AI Act, introduce un impianto di classificazione del rischio che presuppone una comprensione adeguata delle caratteristiche dei sistemi di intelligenza artificiale. Senza una consapevolezza della natura probabilistica e non semantica dei Large Language Model, ogni tentativo di integrazione nei processi decisionali pubblici rischia di essere viziato da un’eccessiva fiducia o, all’opposto, da un rifiuto aprioristico. In ambito istituzionale e amministrativo, l’output di un modello deve essere trattato come un semilavorato statistico, suscettibile di verifica, contestualizzazione e responsabilizzazione umana. La sua straordinaria capacità di sintesi, riformulazione e analisi preliminare può rappresentare un supporto prezioso, ma non sostituisce il giudizio critico né la responsabilità giuridica dell’operatore.
La sfida che si impone, tra ricerca e pubblica amministrazione, non è quella di attribuire coscienza alle macchine, ma di preservare la lucidità concettuale necessaria a governarle. Un Large Language Model può parlare la nostra lingua con impressionante fluidità, ma non ne condivide l’esperienza, il riferimento al mondo, né il senso. Comprendere questa differenza non è un esercizio accademico: è il presupposto di una governance del tecnologico capace di coniugare innovazione, responsabilità e trasparenza.