La discussione sull’intelligenza artificiale non si gioca soltanto sul terreno tecnico, ma anche su quello filosofico: cosa significa “pensare”? I Large Language Models sono macchine di correlazioni o veri e propri agenti di ragionamento? In questo botta e risposta, due scienziati mettono a confronto le loro posizioni.
Scena: una pausa caffè durante un convegno di scienze cognitive.
Personaggi:
• Prof. Leone, neuroscienziato computazionale, assertore della tesi “gli LLM non pensano”.
• Prof.ssa Artemide, esperta di intelligenza artificiale teorica, sostenitrice della tesi “gli LLM ragionano, eccome”.
Leone:
"Gli LLM non pensano. Calcolano probabilità, predicono la parola successiva. È statistica, non ragionamento."
Artemide:
"Eppure risolvono teoremi olimpici, con dimostrazioni verificate formalmente. Non è solo predizione: è inferenza strutturata."
Leone: Ma manca l’intenzionalità. Nessuna coscienza, nessun concetto interno: solo correlazioni apprese.
Artemide: Il pensiero non coincide con la coscienza. Se un modello aggiorna credenze dal contesto e costruisce catene logiche, quello è ragionamento procedurale.
Leone: Illusione. Se scrive in latino, non significa che capisca Cicerone: riproduce pattern, non significati.
Artemide: E noi, quando completiamo una frase, non facciamo lo stesso? Predizione su base esperienziale. La differenza è il substrato, non la funzione.
Leone: Ma la generalizzazione dei modelli è fragile: basta uscire dal dominio noto e collassano.
Artemide: Anche noi sbagliamo catastroficamente fuori contesto. La fallibilità è parte del pensiero, non una sua negazione.
Leone: Resta il fatto che l’LLM massimizza coerenza, non verità.
Artemide: Con sistemi di verifica e premi a step intermedi, la correttezza diventa tracciabile. Esattamente come fa un matematico: prova, corregge, apprende.
Leone: Dunque, se pensiero significa coscienza e intenzionalità, non pensano. Se significa inferenza capace di produrre nuove conoscenze, allora sì.
Artemide: Ed è proprio qui il punto: ridefinire cosa chiamiamo “pensiero”. Forse è meno umano di quanto crediamo, e più artificiale di quanto temiamo.
Il confronto resta aperto: tra chi rivendica l’unicità della mente umana e chi riconosce nelle macchine forme nuove di ragionamento. Forse la domanda non è se gli LLM pensano “come noi”, ma se siamo disposti a riconoscere che esistono altri modi di pensare, inscritti non nella biologia ma nel calcolo.