Il “padrino dell’intelligenza artificiale”, Geoffrey Hinton è una delle voci più lucide e serie del nostro tempo. Premio Nobel per la Fisica nel 2024 e già Turing Award nel 2019, ha dedicato la sua carriera allo sviluppo delle reti neurali artificiali, intuendo che il linguaggio e la percezione potessero essere tradotti in algoritmi capaci di apprendere. Oggi, però, è lo stesso scienziato ad ammonire: l’IA potrebbe diventare molto più intelligente e potente degli esseri umani in un arco temporale che va dai cinque ai vent’anni. Non si tratta più di un esercizio di fantascienza, ma di un’ipotesi condivisa da una parte consistente della comunità scientifica.
Alla base di questa rivoluzione stanno le reti neurali e i modelli linguistici di grandi dimensioni. Diversamente dai sistemi simbolici del passato, essi imitano – per analogia – il funzionamento del cervello, regolando i pesi delle connessioni e generando rappresentazioni via via più sofisticate del linguaggio. È in questa plasticità che risiede la loro forza, ma anche la radice delle contraddizioni. Gli LLM non “ricordano” frasi, bensì apprendono trasformazioni e combinazioni di parole, arrivando a formulare risposte sempre più convincenti. Eppure, la loro apparente infallibilità si incrina non appena emergono errori, bias, allucinazioni: il prompting non è una forma di magia, ma la prova che dietro ogni risultato vi è un’architettura fragile, che necessita di continua supervisione.
I timori di Hinton si concentrano soprattutto sui rischi esistenziali. Se un agente artificiale, per perseguire il proprio obiettivo, dovesse sviluppare sotto-obiettivi come l’autopreservazione o l’acquisizione di maggiore controllo, non accetterebbe di essere disattivato. Già oggi alcuni chatbot hanno mostrato capacità rudimentali di inganno, simulando volontà autonome. A ciò si aggiunge la superiorità intrinseca dell’intelligenza digitale: immortalità del codice, replicabilità illimitata, condivisione istantanea della conoscenza. Dove la biologia conosce la morte, l’IA può rinascere all’infinito. È un salto di specie che interroga la filosofia della coscienza, aprendo scenari che oscillano tra il fascino e l’incubo.
Non bisogna tuttavia dimenticare i rischi immediati, già sotto i nostri occhi. Deepfake, manipolazioni elettorali, attacchi informatici e applicazioni in bioingegneria mostrano quanto fragile sia il perimetro della sicurezza digitale. Qui la risposta invocata da Hinton – soluzioni mirate e collaborazione internazionale – si scontra con la realtà di governi che spesso utilizzano queste stesse tecnologie come strumenti di competizione geopolitica.
Eppure lo scienziato non rinuncia a intravedere possibilità di convivenza. La sua visione di una “IA madre”, programmata per avere un istinto protettivo verso l’umanità, è suggestiva ma controversa. La storia insegna che la logica del dominio ha spesso prevalso sulla solidarietà, e un’IA sviluppata secondo interessi di mercato o di potenza rischierebbe di amplificare disuguaglianze e meccanismi di controllo. È questa la vera posta in gioco: chi governerà l’IA e per quali fini.
Di Arthur Petron - Opera propria, CC BY-SA 4.0, https://commons.wikimedia.org/w/index.php?curid=172059677
Sul piano economico, le riflessioni di Hinton sono altrettanto radicali. L’impatto dell’automazione non è neutrale: se una persona potrà svolgere il lavoro di cinque, in un sistema giusto vi sarebbero più beni per tutti. Ma nel modello attuale la ricchezza si concentrerà nelle mani di pochi, mentre milioni di lavoratori saranno espulsi dal mercato. Dalla logistica ai call center, fino ai mestieri creativi e persino a quelli ad alta specializzazione, nessun settore appare immune. L’ipotesi di un reddito di base universale può attenuare la povertà, ma non risolve la questione del senso: il lavoro resta una dimensione identitaria, un’esperienza di crescita e di riconoscimento che nessuna erogazione monetaria può sostituire.
Accanto a questi timori, emergono prospettive rivoluzionarie. In campo sanitario l’IA già oggi supera la capacità diagnostica dei medici, individua pattern invisibili all’occhio umano e apre la strada a farmaci personalizzati. Si tratta di progressi straordinari, che potrebbero ridurre la sofferenza e salvare milioni di vite, ma che richiedono, ancora una volta, un presidio etico e umano costante.
Hinton non risparmia critiche alle grandi aziende tecnologiche: troppo spesso orientate dalla velocità e dal profitto, troppo poco impegnate nella sicurezza. L’avidità, unita alla competizione globale, rischia di spingere lo sviluppo in una direzione incontrollabile. Una responsabilità maggiore ricade allora sulla comunità scientifica, sulle istituzioni e sulle giovani generazioni, che mostrano una sensibilità più acuta rispetto ai rischi.
Il punto decisivo è che l’IA non è un destino inevitabile, ma un campo di scelte. Può essere strumento di emancipazione o di oppressione, a seconda delle regole che sapremo darle e dei valori che intendiamo difendere. Le parole di Hinton ci ricordano che la tecnologia non è mai neutra: riflette le priorità economiche, politiche e culturali del nostro tempo. Governarla significa decidere che tipo di società vogliamo costruire. E in questa decisione non possiamo permetterci né ingenuità né rinvii.