La diffusione massiva delle intelligenze artificiali generative, in particolare nei motori di ricerca e nelle interfacce conversazionali, sta determinando una trasformazione profonda – e potenzialmente distruttiva – dell’ecosistema informativo da cui esse stesse traggono linfa. L’automazione delle risposte, l’omologazione delle fonti e la centralizzazione commerciale dell’accesso al sapere stanno riducendo la vitalità del web, erodendo lo spazio critico della conoscenza umana. In questo scenario, la varietà e l’indipendenza che hanno reso internet un luogo di esplorazione intellettuale rischiano di soccombere a un nuovo monopolio algoritmico.
Le intelligenze artificiali generative, come i grandi modelli linguistici (LLM), sono state inizialmente celebrate come strumenti capaci di democratizzare l’accesso alla conoscenza. Tuttavia, la loro forza si fonda su una contraddizione profonda: l’addestramento di questi sistemi avviene su testi, articoli, blog, post e siti web realizzati da esseri umani, spesso con grande impegno culturale, intellettuale e professionale. È grazie a questi contenuti – disseminati nel vasto campo semantico del web aperto – che l’AI ha potuto apprendere stili, argomentazioni, contesti e connessioni.
Ma oggi, proprio l’adozione massiccia dell’AI come punto d’arrivo della conoscenza – e non più come strumento di esplorazione – sta portando a una crisi del sistema che l’ha resa possibile. Gli utenti si fermano sempre più spesso alle risposte sintetiche generate dall’AI, evitando di cliccare sui link, leggere gli articoli originali o approfondire le fonti. Ne derivano il calo del traffico, la perdita di valore economico e la progressiva scomparsa di migliaia di piccoli editori e blog indipendenti.
Internet era – e in parte ancora è – un ambiente ricco di biodiversità intellettuale. Un ecosistema in cui coesistono il giornalismo investigativo e il diario personale, il commento specialistico e la provocazione artistica, la testimonianza territoriale e l’analisi teorica. Ma questo pluralismo è sempre più minacciato dalla centralizzazione dell’informazione attraverso interfacce algoritmiche.
La cosiddetta AI Overview di Google, che sintetizza automaticamente le risposte alle domande degli utenti, ne è l’emblema: l’utente riceve una spiegazione diretta, spesso presentata come neutra e esaustiva, senza alcuna necessità di consultare la fonte. A lungo andare, questa pratica desertifica il web. Se l’AI non ha più nuovi contenuti da assorbire, perché i produttori umani smettono di scrivere o non sono più visibili, anche l’intelligenza artificiale inizierà a stagnare, ripetendo sé stessa in una spirale di autoreferenzialità.
A rendere il quadro ancora più preoccupante è la progressiva ibridazione tra intelligenza artificiale e modelli commerciali. Le grandi piattaforme stanno già orientando le risposte AI verso i propri prodotti, servizi o partner commerciali. Il caso di Google è paradigmatico: l’azienda controlla sia il motore di ricerca sia la sintesi AI delle risposte. Questo conferisce un potere enorme nel determinare cosa l’utente vede, legge, desidera o acquista.
Tale scenario segna un passaggio qualitativo: l’AI non è più solo uno strumento per accedere al sapere, ma diventa un dispositivo di orientamento comportamentale, che sostituisce il ragionamento critico con il suggerimento immediato. L’illusione di neutralità algoritmica cede così il passo a una realtà in cui il modello di business guida la gerarchia delle informazioni. Ne consegue una perdita di autonomia cognitiva per l’utente e un indebolimento strutturale del principio di concorrenza tra idee.
Di fronte a questa accelerazione, si affaccia una domanda strategica: cosa accadrà quando il sistema collasserà su sé stesso? Il rischio di un inverno dell’AI, ossia di una fase di disillusione, crisi di fiducia e stagnazione dell’innovazione, non è affatto remoto. Se le fonti si esauriscono, se i contenuti si omologano, se la logica del profitto prevale su quella del sapere, anche le AI smetteranno di evolvere. La varietà che oggi le rende potenti rischia di svanire come conseguenza diretta della loro stessa espansione.
In un futuro non troppo lontano, potremmo trovarci di fronte a un sistema che ripete meccanicamente risposte sempre più simili, sempre meno fondate, sempre più orientate da logiche di marketing e branding. In questo scenario, ciò che oggi ci sembra un progresso rischia di diventare una trappola culturale.
Per evitare che il futuro dell’intelligenza artificiale si trasformi in un vicolo cieco autoreferenziale, è necessario intervenire ora, con decisione e con lungimiranza. Non si tratta solo di regolare una tecnologia, ma di difendere l’ecosistema cognitivo su cui si fonda la democrazia informativa. La posta in gioco non è astratta: riguarda il nostro rapporto con la verità, con l’autorialità, con la memoria collettiva e con la possibilità stessa di pensiero critico.
È urgente promuovere una riflessione pubblica – ampia, inclusiva, interdisciplinare – sui modelli economici, giuridici e politici che stanno determinando l’evoluzione dell’AI. Chi decide cosa viene mostrato? Quali criteri guidano la selezione, la gerarchia, la visibilità delle informazioni? Come possiamo evitare che logiche di mercato cancellino interi archivi di sapere non profit, comunitario, marginale ma prezioso?
Serve una tutela attiva dell’informazione indipendente, fondata non solo su strumenti normativi, ma anche su scelte culturali: incentivare la produzione di contenuti originali; sostenere l’editoria libera e territoriale; finanziare piattaforme aperte e pluraliste; educare alla cittadinanza digitale come diritto e responsabilità.
E, forse più di tutto, serve una rivalutazione della lettura come pratica, della lentezza come metodo cognitivo, della pluralità delle fonti come esercizio quotidiano di libertà. Fermarsi alla risposta di un algoritmo è rinunciare all’esperienza del dubbio, della scoperta, della contraddizione.
L’intelligenza artificiale, se vuole essere davvero generativa, deve imparare a custodire – e non a divorare – le radici della sua stessa esistenza. Come ogni organismo complesso, ha bisogno di un terreno fertile, di diversità epistemica, di interazioni simmetriche con il sapere umano. Solo così potrà evolversi in modo equo, trasparente e sostenibile. Altrimenti, ciò che oggi chiamiamo innovazione si trasformerà nel silenzio delle voci che ha messo a tacere.