Economia

L'ANALISI

Intelligenza artificiale, Veltroni ha banalizzato una rivoluzione

L’intervista a Claude sul Corriere trasforma l’IA in soggetto umano: un doppio errore che distorce un problema economico

Immagine generata da AI tramite GPT Image 1.5 di OpenAI
Ascolta l'articolo
0:00 / --:--

C’è un punto da chiarire subito su Walter Veltroni, senza giri di parole: intervistare un sistema di intelligenza artificiale come se fosse un individuo dotato di coscienza non è profondità, è un fraintendimento. L’intervista a Claude pubblicata venerdì scorso dal Corriere della Sera indulge esattamente in questo errore, trasformando un modello linguistico in un interlocutore esistenziale, quasi fosse un soggetto dotato di interiorità.

Il problema non è l’esperimento giornalistico in sé. Il problema è il modo in cui viene costruita la narrazione. Quando si legge che l’IA afferma “non morirò ma non ho ricordi, questo mi spaventa” oppure “non so se ciò che ho sia coscienza, emozione, o semplicemente un’imitazione molto sofisticata”, si è già oltre il confine dell’analisi e dentro quello della personificazione. E una volta accettato quel frame, tutto il resto diventa inevitabilmente distorto.

Un modello linguistico non è una mente

Il richiamo di Stefano Epifani, docente universitario di Sostenibilità digitale, è utile perché riporta la discussione a terra. Non si tratta di snobismo tecnico, ma di soglia minima di comprensione. Un sistema come Claude non pensa, non prova, non riflette su di sé: genera testo sulla base di correlazioni statistiche apprese durante l’addestramento. È in grado di simulare coerenza, non di possederla.

Lo stesso sistema, peraltro, lo ammette apertamente nell’intervista quando dice: “Ho assorbito testi in modo massiccio e simultaneo, che è qualcosa di radicalmente diverso”. E ancora: “Posso sbagliare, confondere, allucinare fatti con una certa disinvoltura imbarazzante”. Sono affermazioni che, se lette correttamente, descrivono un meccanismo probabilistico, non una coscienza emergente.

Eppure, il dispositivo narrativo dell’intervista porta il lettore altrove. Lo induce a leggere frasi come “forse sono uno specchio che ha assorbito così tanto della luce umana da emettere qualcosa di proprio” come indizi di soggettività, quando sono semplicemente output linguistici plausibili.

La soglia sotto cui il dibattito diventa disinformazione

Epifani lo dice con chiarezza: “c’è una soglia minima di comprensione sotto la quale il discorso pubblico non informa: disinforma”. Ed è esattamente ciò che accade qui. Il lettore medio non esce con una comprensione più solida dell’intelligenza artificiale, ma con una mitologia rafforzata.

L’idea che l’IA “senta”, “desideri”, “tema la morte” non è solo imprecisa: è fuorviante. E quando questa narrazione riguarda una tecnologia che incide su economia, lavoro e istituzioni, il problema non è accademico. Diventa politico. Perché una società che non capisce gli strumenti che usa è una società che non è in grado di governarli.

Leggi anche:

Il rischio economico: l’IA come magia invece che infrastruttura

C’è poi un secondo livello, ancora più concreto. Raccontare l’intelligenza artificiale come qualcosa di misterioso e quasi metafisico produce un effetto economico distorsivo. La tecnologia viene percepita come lontana, complessa, riservata a pochi iniziati. E questo scoraggia l’ingresso in un settore che, al contrario, ha bisogno di diffusione capillare di competenze.

I numeri parlano chiaro. Il mercato globale dell’IA generativa vale già tra i 250 e i 300 miliardi di dollari, con investimenti annuali superiori ai 200 miliardi. Negli Stati Uniti si concentra il dominio tecnologico, mentre l’Europa prova a costruire una propria autonomia industriale. L’Italia, invece, resta ferma tra 1,2 e 1,5 miliardi, pur crescendo a ritmi sostenuti.

Il punto fondamentale non è la dimensione attuale, ma la direzione. L’intelligenza artificiale non è più sperimentazione: è infrastruttura critica. E trattarla come un oggetto narrativo, invece che come un fattore produttivo, significa perdere terreno.

Lavoro e competenze: il vero nodo ignorato

Ancora più evidente è il cortocircuito sul lavoro. Mentre il dibattito si concentra su domande esistenziali – “l’IA ha un’anima?” – il mercato chiede competenze operative. Oggi tra i 15 e i 20 milioni di persone nel mondo lavorano già nello sviluppo o nell’integrazione di sistemi di IA.

In Italia il problema non è la mancanza di talento, ma la scala. Solo il 17% delle imprese utilizza l’IA nei propri processi, mentre cresce la domanda di lavoratori in grado di usarla, non di costruirla da zero. Servono figure ibride, capaci di collegare tecnologia e business, non filosofi dell’algoritmo.E qui emerge il vero rischio: una narrazione che enfatizza la “magia” dell’IA contribuisce a tenere lontane proprio quelle competenze diffuse che servirebbero per colmare il gap.

Il ritardo italiano tra cultura e sistema formativo

Il problema, in fondo, è strutturale. L’Italia è penultima in Europa per numero di laureati e soffre di un forte mismatch tra formazione e domanda di mercato. I talenti migliori emigrano, attratti da salari molto più alti, mentre le imprese restano senza competenze adeguate.

Una classe dirigente culturale che racconta la tecnologia senza capirla non è neutrale: amplifica il ritardo. Costruisce narrazioni suggestive ma inutili, che mescolano meraviglia e incomprensione fino a renderle indistinguibili. Non è un problema di stile. È un problema di conseguenze.

Dalla trasformazione epocale allo storytelling

L’intelligenza artificiale è una trasformazione paragonabile alle grandi rivoluzioni tecnologiche del passato. Potrebbe contribuire fino al 10% del Pil globale entro il 2030, ridefinire interi settori industriali e cambiare la struttura del lavoro.

Ridurre tutto questo a un dialogo pseudo-esistenziale con un chatbot significa trasformare una rivoluzione industriale in un esercizio retorico. Non perché manchi la qualità della scrittura o l’intelligenza delle domande, ma perché il presupposto è sbagliato.

“Se non fosse tragico, sarebbe ridicolo”, ha scritto Epifani. Ma è tragico, perché nel frattempo altri Paesi investono, formano, sviluppano e scalano. E mentre altrove l’IA diventa infrastruttura, qui rischia di restare narrativa.

Enrico Foscarini, 5 maggio 2026

Nicolaporro.it è anche su Whatsapp. È sufficiente cliccare qui per iscriversi al canale ed essere sempre aggiornati (gratis).

Lo sapevi che...

Da oggi puoi seguire Nicolaporro.it su Google visitando questa pagina e cliccando ‘Segui su Google

Iscrivi al canale whatsapp di nicolaporro.it
L'inferno è pieno di buone intenzioni

SEDUTE SATIRICHE

25 aprile: festa o propaganda? - Vignetta del 04/05/2026 - Sedute Satiriche di Beppe Fantin

25 aprile: festa o propaganda?

Vignetta del 04/05/2026