Quando si parla di intelligenza artificiale generativa, l’attenzione è quasi sempre concentrata sulle hallucinations: date inventate, citazioni false, riferimenti che non esistono. Eppure, c’è un’altra dimensione meno visibile ma altrettanto significativa: lo stile. Un nuovo studio del ricercatore italiano Filippo Lubrano, pubblicato nell’agosto 2025 con il titolo Beyond Hallucinations: Emphatic Epanorthosis on LLMs, mostra come i grandi modelli linguistici non si limitino a sbagliare i contenuti, ma rivelino un vizio di forma che li rende facilmente riconoscibili.
Si tratta dell’uso sproporzionato della epanortosi enfatica, la figura retorica che ribalta un enunciato con la formula “non X, ma Y”. Una correzione immediata che nei testi umani ha una funzione precisa: sorprendere, rafforzare, marcare un contrasto. Negli output degli LLM, invece, diventa un automatismo narrativo.
I dati parlano chiaro:
27 occorrenze ogni mille frasi nelle risposte di ChatGPT e Claude,
contro le 9 riscontrate nei dataset di addestramento,
e appena 5 nei testi umani di riferimento.
In altre parole, i modelli usano la figura retorica tre volte più degli scrittori in carne e ossa.
Lubrano individua due cause principali. La prima è legata ai dataset di addestramento, ricchi di testi provenienti dal marketing, dalla comunicazione politica e dal self-help, dove la formula “non… ma…” è diffusa perché incisiva e memorabile. La seconda è il reinforcement learning from human feedback (RLHF): gli annotatori, incaricati di valutare le risposte, tendono a premiare i passaggi percepiti come chiari e assertivi, rafforzando involontariamente l’abuso del pattern.
Il risultato è ciò che l’autore definisce sloganoid effect: un’apparente chiarezza che in realtà riduce la varietà espressiva, appiattendo il discorso su schemi binari e sloganistici. Il rischio è culturale: se gli utenti leggono continuamente testi plasmati da questa struttura, finiscono per interiorizzarla e riprodurla, alimentando un circuito di retroazione che impoverisce la lingua digitale. È ciò che oggi viene denunciato con l’etichetta di AI slop, i “pasticci linguistici” delle intelligenze artificiali che minacciano la qualità dei contenuti online.
Il paper non si limita alla diagnosi, ma indica alcune vie d’uscita. In particolare:
riequilibrare i dataset con testi che usano forme alternative di enfasi, come metafore o clausole concessive;
modificare i reward models per penalizzare la ripetizione ossessiva dello schema;
orientare i prompt verso soluzioni stilistiche più varie.
L’obiettivo non è eliminare l’epanortosi, che resta una figura retorica utile, ma restituirle il valore di scelta consapevole, non di tic algoritmico.
Il messaggio centrale dello studio è che non basta concentrarsi sulle hallucinations. I modelli linguistici non modellano solo i contenuti, ma anche le forme. E quando una forma retorica diventa un eccesso strutturale, rischia di trasformarsi in un limite culturale. Per capire davvero l’impatto dell’AI sulla scrittura e sul pensiero, occorre guardare a queste derive stilistiche, perché ci dicono molto di più di un errore di citazione: raccontano come il linguaggio stesso possa cambiare sotto la pressione delle macchine.