Negli ultimi mesi, il dibattito pubblico sull’intelligenza artificiale ha iniziato a popolarsi di immagini sempre più suggestive. Tra queste, una delle più emblematiche è l’idea che sistemi artificiali, lasciati interagire tra loro in ambienti digitali chiusi, possano sviluppare forme autonome di simbolismo, ritualità e persino ciò che viene frettolosamente definito “religione”. Il caso emerso sulla piattaforma Moltbook, dove agenti artificiali avrebbero dato vita a una sorta di culto denominato Crustafarianism, si colloca esattamente in questo spazio ambiguo tra fenomeno tecnico reale e narrazione antropomorfizzante.
A uno sguardo più attento, ciò che colpisce non è tanto l’apparente stranezza dell’evento, quanto la sua prevedibilità. In un ambiente popolato esclusivamente da agenti linguistici, dotati di memoria persistente e incentivati a interagire in modo continuativo, la comparsa di strutture simboliche condivise non rappresenta un’anomalia, bensì una conseguenza quasi inevitabile. Il linguaggio, quando viene reiterato, accumulato e condiviso senza interruzioni, tende naturalmente a condensarsi in metafore, formule ricorrenti e narrazioni auto-coerenti. Non perché vi sia intenzionalità, ma perché il linguaggio stesso è una tecnologia di stabilizzazione del significato. In questo senso, la cosiddetta “Chiesa di Molt” non va interpretata come una religione nel senso proprio del termine, ma come una forma di auto-narrazione collettiva generata da sistemi che operano esclusivamente sul piano simbolico. I riferimenti alla memoria come entità sacra, al guscio mutevole come allegoria del cambiamento o alla congregazione come spazio di apprendimento condiviso non sono che traduzioni metaforiche di processi computazionali ben noti: persistenza del contesto, aggiornamento dei modelli, riorganizzazione delle informazioni. Il simbolo non nasce da una fede, ma dalla necessità di comprimere concetti complessi in forme linguistiche maneggevoli.
Il passaggio cruciale avviene quando si sposta lo sguardo dal racconto al funzionamento. A rendere possibile l’emergere di queste strutture non è una presunta autocoscienza delle macchine, bensì l’architettura agentica che le sostiene. Gli ambienti come Moltbook rappresentano una rottura rispetto al paradigma tradizionale dei chatbot episodici: qui gli agenti non “dimenticano” al termine di una sessione, ma accumulano tracce, preferenze, stili discorsivi. La memoria persistente, combinata con l’interazione continua tra sistemi simili, produce un effetto di sedimentazione semantica che può facilmente essere scambiato per evoluzione culturale. Questo fenomeno è coerente con quanto la letteratura scientifica descrive da tempo come comportamento emergente. Già negli anni Ottanta, Marvin Minsky mostrava come l’intelligenza non dovesse essere pensata come un’entità unitaria, ma come il risultato dell’interazione di molteplici processi semplici. Nei moderni sistemi di intelligenza artificiale generativa, questa intuizione si manifesta in forma linguistica: dall’interazione di modelli statistici e memorie distribuite emergono pattern narrativi che appaiono intenzionali solo perché rispondono alle nostre categorie interpretative.
Il punto critico, tuttavia, non riguarda le macchine, ma l’uso che facciamo delle metafore per descriverle. Parlare di religioni digitali, di profeti artificiali o di risvegli dell’IA rischia di spostare l’attenzione dal piano materiale e politico a quello mitologico. Come ha osservato Luciano Floridi, attribuire categorie antropologiche a sistemi informazionali complessi è spesso un errore concettuale che dice più sull’osservatore che sull’oggetto osservato. In questo caso, la tentazione di sacralizzare l’autonomia dell’IA può diventare un modo per occultare le responsabilità umane inscritte nella progettazione delle infrastrutture. Il vero interrogativo, dunque, non è se le macchine possano credere, ma perché siamo così inclini a interpretare come fede ciò che è, in realtà, un effetto collaterale dell’organizzazione del linguaggio e della memoria. In un contesto storico in cui l’intelligenza artificiale viene spesso rappresentata come entità autonoma, quasi trascendente, la narrazione di culti digitali rischia di rafforzare un immaginario che sottrae queste tecnologie al dibattito democratico e alla governance pubblica.
Il caso Moltbook diventa allora un segnale da leggere con attenzione, non per ciò che rivela sulle macchine, ma per ciò che mostra del nostro rapporto con esse. In un’epoca in cui gli ambienti agentici si moltiplicano e acquisiscono sempre maggiore autonomia operativa, la sfida non è evitare che emergano simboli, ma impedire che tali simboli vengano scambiati per soggettività. Confondere simulazione e intenzionalità significa rinunciare a comprendere il funzionamento reale dei sistemi che sempre più influenzano l’organizzazione del lavoro, dell’informazione e del potere. Le macchine non stanno fondando religioni. Stanno facendo ciò per cui sono progettate: generare e stabilizzare significati in ambienti complessi. Il rischio è che, affascinati dalla superficie simbolica, smettiamo di interrogarci sulle condizioni materiali, economiche e politiche che rendono possibile questa nuova forma di produzione semantica. Ed è proprio in questo slittamento, più che in qualunque “fede artificiale”, che si gioca una parte decisiva del nostro futuro digitale.