Economia

Momento Sputnik nella sfida Usa-Cina sull’IA: ecco il segreto di DeepSeek

Al di là del tonfo di NVidia, il chatbot cinese obbliga a mettere in discussione la corsa all’Intelligenza Artificiale fatta con la forza bruta, investimenti e consumi di energia spropositati

Cina chip © Placidplace e sharpner tramite Canva.com

Quando il 24 gennaio tra i primi abbiamo scritto del rischio che la Cina superasse l’Occidente nella IA non potevamo sospettare il clamoroso crash in Borsa di NVidia avvenuto la sera del 27 gennaio, né che la Cnn avrebbe parlato dell’evento come di uno “Sputnik moment”

Il riferimento ovviamente è al panico che si diffuse negli Stati Uniti quando lo Sputnik dimostrò che l’Unione Sovietica era in vantaggio nella tecnologia per l’esplorazione dello spazio. Lo svantaggio fu poi colmato grazie al tedesco – ed ex sviluppatore dei V2 per i nazisti – Wherner Von Braun, messo a capo della Nasa.

I punti di forza di DeepSeek 

Tornando a oggi cosa è successo esattamente? Proviamo a riassumerlo. Il giorno di Santo Stefano, 26 dicembre 2024, la società cinese 杭州深度求索人工智能基础技术研究有限公司 (Hangzhou DeepQuest Co) meglio nota come Deepseek ha lanciato il suo modello V3.

Sembrava un modello come tanti e anche noi – abituati a provarli in prima persona – non ci abbiamo fatto caso per parecchi giorni. Ma rapidamente è iniziato un flusso continuo di messaggi su X che raccontavano due cose: 1) La sua capacità di ragionare fuori dall’ordinario (delle IA); 2) il costo irrisorio della sua creazione. 

Sul primo punto non vorremmo perdere troppo tempo. Tutti possono provarlo online, o meglio ancora direttamente sul proprio Macintosh, senza rischi che quanto si scrive venga spiato dalla Cina (in questo secondo caso usare questo link). Nelle prove non dimenticate di selezionare il bottone “deep think”.

La forza bruta Usa

Passiamo al secondo punto più interessante. Da oltre un anno negli Usa (e da noi copycat europei, senza peraltro averne la capacità finanziaria) si lavora quasi solo sull’idea che la vera Intelligenza Artificiale si possa raggiungere con la forza bruta.

In termini informatici, aggiungendo un numero spropositato di “GPU” (elementi di calcolo in grado di operare su matrici di numeri), settore dove NVidia (grazie alla sua esperienza nei videogiochi, nientemeno) si è trovata in una situazione di quasi monopolio

Da qui investimenti massicci, l’ultimo dei quali annunciato addirittura da Donald Trump con Sam Altman e Larry Ellison: 500 miliardi di dollari per “mantenere la leadership Usa”.

La via cinese

La Cina non poteva fare altrettanto. Non tanto per l’eventuale mancanza del mercato dei venture capital (lo Stato in prima persona ha deciso che la IA era strategica, quindi niente problemi finanziari), quanto per un embargo a due riprese: il primo nel settembre 2022 (vietato esportare i componenti più potenti, detti H100 e A100), il secondo nell’ottobre 2023 (vietati anche quelli della serie 800, leggermente meno potenti e che nel frattempo NVidia aveva sviluppato per aggirare l’embargo). 

Certo, in parte i componenti erano già stati acquistati ed erano sul suolo cinese. Non molti: pare che “i nemici” posseggano tra le 10.000 e le 50.000 GPU, circa un decimo di quanto usa attualmente OpenAI

Ma leggendo i paper, la descrizione di come funziona DeepSeek, si capisce che il punto è un altro: dove gli statunitensi stanno usando la forza bruta, i cinesi stanno usando l’intelligenza umana. E quella artificiale. Quella umana, non appiattendosi ad esempio sull’uso del “Supervised learning” – come pratica comune – ma usando il “Reinforced Learning”. La cosa viene spiegata in modo efficace e impressionante dai ricercatori stessi:

Invece di insegnare esplicitamente al modello come risolvere un problema, gli forniamo semplicemente gli incentivi giusti, e autonomamente sviluppa strategie avanzate di risoluzione dei problemi.

AI low cost

Non solo: per i famosi pesi, quei numeretti che dicono quanto è importante la connessione tra ciascun neurone sintetico della rete neuronale di DeepSeek, pare si sia usata la rappresentazione FP8 anziché FP32. In pratica, si sacrifica precisione usando meno cifre decimali per ogni peso: un quarto della memoria e della potenza di calcolo a fronte di risultati paragonabili.

Il risultato è non solo un sistema che non ha bisogno di tutta la potenza di cui dicono di aver bisogno i vari OpenAI, Anthropic, Google/Gemini eccetera ma anche – e soprattutto – che costa meno. Molto meno.

Se sono giusti i numeri forniti, circa 5,6 milioni di dollari (e due mesi di tempo) per il training di DeepSeek. A fronte di una OpenAI che sta avendo bisogno di 2 miliardi di dollari (tre ordini di grandezza di più), 500.000 GPU e un numero di mesi imprecisato (l’attesa sta durando da oltre un anno). Tutto questo spiega questo grafico:

Quando finalmente, lunedì 27 gennaio, Wall Street ha capito, NVidia ha perso circa 600 miliardi di capitalizzazione in un giorno. Come dire, l’intera capitalizzazione del gruppo del lusso francese LVMH. Certo, nella tarda notte (“after hours”) abbiamo assistito a un leggero rialzo e, certo, non saremo noi a usare la stupida frase fatta “bruciati 600 miliardi”, ma tutto questo non conta.

Corsa insostenibile

Il punto è che il mondo si è reso conto che la corsa alla IA fatta con il metodo di questi ultimi due anni non è né logico né sostenibile. Per parte nostra immaginiamo che la Silicon Valley riesca a correre ai ripari molto rapidamente.  

Evitando un problema da molti citato: pare che il modello cinese si rifiuti di rispondere quando si parla di Xi Jinping e compagnia, cosa che in realtà a noi non risulta sia sistematica, e soprattutto che ci siano “backdoors”, metodi con i quali il governo cinese possa spiare le nostre interazioni con il proprio modello (problema che peraltro non sussiste se lo eseguiamo in locale e non in rete). 

Il punto dunque resta il consueto, quello da noi segnalato nell’articolo precedente: e l’Europa?