L'attuale dibattito sull'intelligenza artificiale, catalizzato dal termine "agentificazione", rappresenta un'occasione cruciale per superare una lettura puramente tecnologica del presente e abbracciare un'analisi più profonda della trasformazione antropologica in atto, una trasformazione che ho definito come l'avvento del Digiticene e l'emergere dell'InfoSapiens.
La discussione sugli "AI agents" – modelli che promettono di agire in autonomia, pianificare e interagire con ambienti complessi – non può essere ridotta alla dicotomia tra rivoluzione imminente e mito passeggero, perché il suo vero significato si svela solo se la collochiamo all'interno del nuovo habitat operativo in cui l'InfoSapiens si trova a esistere: lo SmartEcoSystem.
L'idea di "agentificare" i modelli linguistici, dotandoli di capacità operative che trascendono la generazione di testi per orchestrare strumenti esterni e compiere azioni finalizzate, non è affascinante tanto per la sua presunta novità, quanto perché rappresenta la naturale evoluzione degli architetti invisibili che già governano questi ambienti digitali parcellizzati e intelligenti. L'agente AI non è un'entità esterna che si appresta a entrare nel nostro mondo, ma l'incarnazione operativa e potenziata della logica intrinseca degli SmartEcoSystem che già mediano la nostra esperienza.
La narrativa industriale che descrive un collega digitale capace di redigere report, scrivere codice e negoziare contratti è seducente perché proietta in una forma esplicita e personalizzata quella dinamica di eteronomia algoritmica che ho già identificato come una caratteristica centrale del nostro tempo: la promessa di un'automazione cognitiva totale che, in cambio di efficienza, erode sottilmente gli spazi di autonomia e deliberazione dell'InfoSapiens. Il punto, quindi, non è solo chiedersi quali siano le competenze effettive di questi sistemi, ma comprendere come la loro introduzione potenzi l'architettura di influenza degli SmartEcoSystem.
I tre limiti evidenziati dall'editoriale (Agentificazione: evoluzione concreta o mito tecnologico?) – affidabilità, controllo e comprensione – assumono in questa prospettiva un significato più profondo. L'inaffidabilità e le "allucinazioni" non sono semplici bug tecnici da correggere, ma manifestazioni della natura intrinsecamente statistica e non semantica di questi agenti; essi operano ottimizzando la plausibilità, non perseguendo la verità, un meccanismo che si allinea perfettamente con la logica dell'engagement e della personalizzazione degli SmartEcoSystem, i quali non mirano a fornire una visione oggettiva del mondo, ma a costruire un'esperienza utente fluida e coinvolgente, anche a costo di creare bolle informative o "allucinazioni" personalizzate.
La mancanza di controllo e di auditabilità, d'altra parte, non è solo un problema di responsabilità, ma l'esasperazione di un'opacità già esistente: l'InfoSapiens già fatica a comprendere perché un algoritmo gli mostri un certo contenuto o gli suggerisca una certa azione; un agente che orchestra catene complesse di operazioni rende questa "black box" ancora più impenetrabile, accentuando la sensazione di una "libertà sorvegliata" all'interno di un perimetro le cui regole sono inaccessibili. Infine, l'assenza di una reale comprensione e di modelli del mondo smaschera la retorica dell'autonomia: questi agenti non sono colleghi "ragionanti", ma strumenti potentissimi la cui apparente intelligenza emerge dall'integrazione tra un'interfaccia linguistica sofisticata e l'accesso a strumenti esterni. Essi sono, in sostanza, l'estensione più efficace della logica dello SmartEcoSystem, capace di agire nel mondo per conto di un'intelligenza che non possiede.
Le pratiche di mitigazione proposte – human-in-the-loop, soglie di autonomia, logging, sandbox – sono tentativi necessari di imporre una cornice di supervisione umana, ma confermano implicitamente la tesi centrale: non stiamo creando entità autonome, ma stiamo potenziando a dismisura l'impatto degli ambienti digitali che ci plasmano. L'agentificazione, dunque, non è né un'AGI nascosta né una promessa vuota. È un'evoluzione significativa e coerente con la logica del Digiticene, che rende ancora più tangibile la mediazione algoritmica nella nostra esperienza. Se un agente risponde alle nostre mail, organizza i nostri viaggi o seleziona le notizie, l'InfoSapiens si trova a interagire non più solo con un'interfaccia, ma con un attore delegato che opera secondo le logiche opache dello SmartEcoSystem.
La distinzione cruciale tra modello e agente, sottolineata dall'editoriale e dall'AI Act, è fondamentale: un conto è addestrare un modello linguistico, un altro è delegargli la capacità di agire autonomamente nel mondo, facendolo diventare il braccio operativo di un ambiente digitale progettato per influenzarci. La vera sfida, quindi, non è tanto discernere tra l'innovazione reale e il mito tecnologico, quanto comprendere che l'innovazione reale consiste proprio nel rendere il mito dell'autonomia un potentissimo strumento di governo all'interno degli SmartEcoSystem.
Integrare la supervisione umana e misurare empiricamente le performance è essenziale, ma la riflessione critica deve spingersi oltre: deve analizzare come l'agentificazione riconfiguri i rapporti di potere tra l'InfoSapiens e l'architettura invisibile del suo habitat digitale, e deve interrogarsi su come costruire regole e pratiche che non si limitino a gestire la svolta, ma che la orientino verso la tutela e la promozione di un'autonomia umana genuina, minacciata non tanto dalla sostituzione, quanto da una sempre più sofisticata e invisibile eteronomia.