Cosa leggono i chatbot quando parlano di attualità? Da dove traggono le informazioni i modelli linguistici generativi come ChatGPT, Claude o Gemini quando ci offrono risposte che sembrano costruite su una solida base giornalistica? Ce lo dice, con precisione rara, l’ultimo studio di Muck Rack analizzato da Axios: oltre un milione di conversazioni reali sono state scandagliate per capire quali fonti emergono nei risultati prodotti dall’intelligenza artificiale. E i risultati, pur rassicuranti a prima vista, ci pongono davanti a nuove domande etiche, politiche e cognitive che meritano una riflessione seria. Secondo l’indagine, le AI mainstream tendono a citare – anche quando non esplicitamente – contenuti provenienti da fonti giornalistiche professionali, autori autorevoli e canali informativi affidabili. Un’ottima notizia? Forse. Ma dipende da come interpretiamo la parola “affidabile”, da chi decide cosa sia informazione di qualità e da come questi processi si riflettano nella nostra capacità di orientarci nel mondo.
La gerarchia invisibile delle fonti
Il primo dato che emerge è la centralità della stampa professionale nei risultati restituiti dai chatbot. Siti come The New York Times, The Guardian, Reuters o Axios compaiono regolarmente nei testi generati, anche quando i bot non dichiarano esplicitamente la fonte. Seguono testate specialistiche, enciclopedie online, blog di settore e, in misura minore, podcast e newsletter indipendenti (come quelle su Substack). Scompaiono invece quasi del tutto i contenuti sponsorizzati, la pubblicità nativa e il clickbait: un segnale chiaro del fatto che l’AI, per ora, privilegia contenuti strutturati e verificabili rispetto al marketing digitale. Questo mutamento ha effetti dirompenti su SEO, pubblicità e strategie di visibilità online: per essere “letti” dalle AI, occorre scrivere bene, documentare meglio e posizionarsi nel cuore dell’ecosistema informativo. Ma attenzione: questa apparente meritocrazia algoritmica si basa su modelli opachi, che apprendono su dati passati, senza aggiornamenti in tempo reale (a meno di connessioni live al web), e senza esplicitare sempre le gerarchie interne ai set di addestramento. In altre parole: sappiamo cosa leggono oggi, ma non sappiamo con quale peso, con quali filtri, con quali omissioni.
La reputazione nell’era algoritmica
Lo studio evidenzia che l’immagine pubblica di una persona, un marchio o un evento dipende sempre di più non da cosa appare su Google, ma da come l’AI racconta quella persona, quel marchio o quell’evento. Un cambiamento silenzioso ma radicale: l’accesso alla visibilità non è più affidato all’indicizzazione di un motore di ricerca, ma all’interpretazione sintetica di un modello linguistico. In quest’ottica, Muck Rack ha lanciato “Generative Pulse”: una piattaforma per tracciare come e quando un brand viene menzionato dalle AI generative. È la nuova frontiera del monitoraggio reputazionale. Ma a chi è affidato il controllo etico su come l’AI decide cosa dire e cosa tacere? Chi veglia sulla correttezza semantica, sul pluralismo delle fonti, sull’assenza di bias sistemici?
Etica e responsabilità nei sistemi generativi
Nel progetto AI & Ethics che portiamo avanti su Aignosi, insistiamo su un punto chiave: l’AI non è neutra. La scelta delle fonti, la costruzione delle frasi, il modo in cui vengono sintetizzate opinioni complesse o eventi controversi riflette (anche se in modo non sempre intenzionale) una visione del mondo. E quella visione del mondo, oggi, è modellata da chi controlla le pipeline informative. Il rischio non è solo quello di “echo chambers” algoritmiche, ma di una progressiva standardizzazione del pensiero, dove le fonti ritenute affidabili sono sempre le stesse, mentre le voci dissonanti vengono semplicemente ignorate. Non censurate – sarebbe evidente – ma rese invisibili. In questo senso, la citazione selettiva da parte delle AI si configura come una nuova forma di potere culturale.
Serve quindi un framework etico multilivello:
Trasparenza delle fonti: gli utenti devono sapere da dove provengono le informazioni citate;
Pluralismo epistemico: i modelli devono essere in grado di rappresentare diversi punti di vista, soprattutto su temi controversi;
Responsabilità condivisa: aziende, sviluppatori, editori e utenti devono cooperare nel definire cosa significa “qualità” nel mondo dell’informazione algoritmica.
Un nuovo patto tra giornalismo e intelligenza artificiale
Il giornalismo, oggi, ha un’occasione irripetibile: diventare il nucleo semantico attorno al quale si organizza il sapere digitale. Ma per farlo deve rinunciare alle scorciatoie del click, investire in qualità editoriale, e soprattutto pretendere che i grandi modelli linguistici rispettino la paternità e la correttezza delle fonti. Non basta che ChatGPT sappia chi è Seymour Hersh: deve essere in grado di distinguere una sua inchiesta da una teoria complottista su Reddit. Allo stesso tempo, le AI devono imparare a gestire l’incertezza, l’ambiguità, la polifonia dell’informazione. Il mondo non è una serie ordinata di facts: è un campo discorsivo instabile, dove la verità si costruisce anche attraverso il conflitto e il dubbio.
L’educazione come argine e opportunità
Nella battaglia per il controllo dell’informazione sintetica, il cittadino ha un ruolo attivo: imparare a interrogare in modo critico i chatbot, verificare le fonti proposte, riconoscere i limiti dei modelli. Come ogni tecnologia, anche l’AI si piega all’uso che ne facciamo. Ma per orientarsi servono nuovi strumenti di alfabetizzazione cognitiva e digitale. In fondo, la vera posta in gioco non è cosa leggono le AI. Ma cosa leggiamo noi, con le AI accanto. E quanto siamo ancora capaci di distinguere il sapere dalla sua simulazione.