Tra il 2023 e il 2025, l’Intelligenza Artificiale ha attraversato una fase di accelerazione senza precedenti. I modelli generativi, inizialmente limitati alla produzione testuale, hanno scalato rapidamente nuove soglie di complessità: dai chatbot conversazionali si passerà presto agli agenti capaci di apprendere, pianificare, interagire e generare soluzioni originali. Sta emergendo una nuova tassonomia dei sistemi IA, articolata in livelli evolutivi — da semplici assistenti linguistici fino a entità organizzative autonome — che trasformerà radicalmente le attività cognitive ad alta intensità professionale.
Ciò che sta accadendo non è solo un avanzamento tecnico, ma una messa in discussione delle fondamenta su cui abbiamo costruito l’idea di lavoro intellettuale: il merito certificato, la linearità di carriera, la centralità del capitale umano accumulato. Come ha scritto Michele Kettmaier su Il Sole 24 Ore, l’IA non ha rotto il mercato del lavoro: lo sta letteralmente smontando, rendendone visibili le rigidità e le disuguaglianze. Il lavoro, come status e appartenenza, si mostra oggi come una costruzione sociale figlia della modernità industriale, inadeguata alla fluidità delle traiettorie attuali. L’IA non sostituirà le persone: le chiama a reinterpretare, scegliere, co-progettare, spezzando la sequenza mansione-titolo-ruolo che ha dominato per oltre un secolo.
Il valore umano si ridefinisce: non è più nell’esecuzione, ma nell’orientamento; non nella replicazione del sapere, ma nella capacità di generare senso, visione, alternativa. Il lavoro non è più un “posto”, ma una direzione in divenire, fondata su competenze trasversali, capacità di navigare l’incertezza e di costruire cooperazione. La cosiddetta “economia della conoscenza”, intesa come accumulo e gestione di saperi codificati, cederà il passo a un’economia dell’innovazione relazionale, in cui l’apprendimento è continuo e diffuso. Ma questa transizione non si governa da sola. Servono politiche pubbliche orientate al reskilling diffuso, riforme educative capaci di ibridare sapere tecnico e pensiero critico, e soprattutto una governance algoritmica trasparente, che renda visibili gli impatti sociali dell’automazione (si veda a riguardo la recente approvazione del General-Purpose AI Code of Practice).
La scuola e l’università devono trasformarsi in laboratori progettuali; la governance democratica dell’innovazione deve garantire trasparenza e inclusività; la tecnologia, infine, va gestita come risorsa al servizio della libertà umana. La sua sfida non è quella di sostituire l’umano, ma di interrogare la nostra capacità di decidere chi vogliamo essere — utenti passivi o co-autori consapevoli del futuro che ci attende.