Intelligenza artificiale, cosa c’è dietro le richieste di regolamentazione

Preoccupazioni interessate: i Big del settore cercano di ostacolare i futuri concorrenti con limiti governativi. L’ordine di Biden mira a soffocare l’innovazione

4.8k 1
Biden_AI

Da alcune settimane su entrambe le sponde dell’Atlantico c’è un gran fermento. Si tratta dei nostri amici politici, tutti intenti a mettere in pista la macchina che dovrebbe “regolamentare la Intelligenza Artificiale”.  

Abbiamo dunque visto le solite commissioni di studio della Unione europea, un “executive order” del presidente Usa Joe Biden (“Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence”) e infine un summit addirittura a Bletchley Park, il famoso palazzo che ospitò Alan Turing mentre durante la Seconda Guerra Mondiale inventava la famosa macchina in grado di decifrare la crittografia generata dalla macchina “Enigma” utilizzata dai nazisti.

Gravi rischi per l’umanità

La narrazione dominante la conosciamo: la IA pone gravi rischi alla sicurezza di tutti, in prospettiva potrebbe addirittura minacciare l’esistenza stessa dell’uomo. Giusto quindi che i politici, da sempre attenti al solo interesse dei cittadini, facciano il possibile per proteggerci.

Ma forse questa volta sono stati mal consigliati. Per comprenderlo è necessario fare un passo indietro, a maggio 2023, quando usciva lo Statement of AI risks, documento in cui si metteva in guardia nientemeno contro i rischi di estinzione della razza umana a causa della IA.

Tra i firmatari il ceo di OpenAI, il chatbot che ha sostanzialmente dato il via a ormai 12 mesi di incredibili sviluppi nel settore della IA. Terrorizzato dalla tecnologia che la sua azienda stava sviluppando e ha continuato a sviluppare, al punto da implorare il congresso Usa di “regolamentarci”. 

Un recente articolo di Ben Thompson intitolato “AI: Attenuating Innovation” analizza quanto sta avvenendo tanto bene che abbiamo deciso di raccontarlo. Iniziando da questo:

È interessante chiedersi chi abbia firmato questo statement: Sono 30 le firme di OpenAI, tra cui i ceo Sam Altman. Sono 15 le firme di Anthropic, tra cui l’amministratore delegato Dario Amodei. Ci sono sette firmatari di Microsoft, incluso il cto Kevin Scott. Ci sono 81 firme da parte di Google, incluso il ceo di Google DeepMind Demis Hassabis. Non ce ne sono né di Apple né di Amazon, ma sono presenti quelle di due dipendenti di basso livello di Meta.

Preoccupazioni interessate

Ciò che colpisce di questo conteggio è l’assoluta correlazione tra il numero di firme delle varie aziende e la attuale posizione di mercato delle aziende stesse. OpenAI è in testa e la società sta ricavando entrate reali da ChatGPT; Anthropic è secondo e ha firmato accordi sia con Google che con Amazon. Google ha ottimi prodotti anche se una apparente paralisi interna riguardo alla loro attivazione per motivi di modello di business; sollecitare cautela è assolutamente nel loro interesse.  

Il punto è questo: in generale la regolamentazione garantisce le rendite di posizione degli operatori storici. È sicuramente degno di nota il fatto che gli attuali detentori della tecnologia dell’Intelligenza Artificiale sembrano i più interessati a generare allarme a Washington e nel mondo sui pericoli di questa nuova tecnologia.

Preoccupazioni che apparentemente non sono abbastanza forti da indurli a fermare il proprio lavoro: “State attenti, quanto facciamo è molto pericoloso, intanto noi continuiamo a farlo”, dicono. 

Sarebbero dunque loro i responsabili, quelli che si preoccupano abbastanza da richiedere una regolamentazione; e tanto meglio se le preoccupazioni finiscono per danneggiare i futuri possibili concorrenti.

Il rischio della regolamentazione

Un’analisi di Steven Sinofsky, uno dei massimi “software architect” di Microsoft, ci permette di comprendere meglio:  

Questo documento (l’executive order di Biden, ndr) è il lavoro di aggregazione degli input politici di un comitato allargato di collegi elettorali interessati con un chiaro obiettivo: identificare cosa si può fare per limitare legalmente l’Intelligenza Artificiale. Non esiste un chiaro proprietario di questo documento. Non esiste un consenso o una direzione scientifica leader che possiamo discernere. Questo non è tanto un documento su ciò che dovrebbe essere fatto con il potenziale della tecnologia, quanto un documento che spinge i limiti di ciò che può essere fatto legalmente per rallentare l’innovazione.

Ciò che manca completamente è qualcosa di positivo, qualcosa che spinga l’acceleratore sui potenziali positivi della IA. L’amministrazione Biden insiste con arroganza sul fatto che dovrebbe avere un ruolo nel dettare i risultati di un’innovazione che pochi, se non nessuno, dei suoi membri comprendono, e che quasi certamente non potrebbero inventare. Questo approccio alla regolamentazione non riguarda l’innovazione, nonostante tutta la verbosità che lo afferma. Questo ordine mira a soffocare l’innovazione e a consegnare la prossima piattaforma agli operatori storici. L’amministrazione Biden, come gran parte dei commentatori e dei politici, parte dal presupposto che l’Intelligenza Artificiale sia pericolosa, nonostante il fatto che molti dei danni elencati, come imparare a costruire una bomba o sintetizzare sostanze chimiche pericolose o condurre attacchi informatici, siano già banalmente spiegati sui normali siti Internet di oggi.

E – aggiungiamo noi – senza considerare che uno dei tre “godfather” della IA, Yann LeCun, continui a spiegare come i presunti pericoli non siano altro che la versione moderna dei pericoli esistenziali che venivano attribuiti alla macchina a vapore: all’inizio del secolo XIX.

Seguici sui nostri canali
Exit mobile version