in

Colonialismo 2.0 - Seconda parte

Dimensioni testo

Rischi non voluti.  

Abbiamo detto che un algoritmo non ha colore, pelle, razza, religione. Un algoritmo (nel mondo delle pr lo si chiama IA, per semplificare) esegue una serie di comandi impostati da uno o più programmatori.

La programmazione da parte di esseri umani può avere delle Bias cognitive involontarie. Il concetto, una volta innestato in un algoritmo, appare complicato ma alla base è molto semplice. Se io programmatore bianco e caucasico (magari pure uomo) definisco che un individuo americano, per ottenere un credito a breve termine, debba almeno avere una storia bancaria (quindi un conto in banca) definirò coloro che non hanno questo parametro come non adatti a ricevere un prestito.

Se lo stesso algoritmo viene poi esportato in Africa dove la grande maggioranza non ha un conto in banca si comprende il grave rischio. Ovviamente errori così banali sono difficili che abbiano luogo, ma ve ne sono altri che invece sono già storia. Gli algoritmi che identificano i cittadini di origine africana come “gorilla” non sono un evento di secoli fa: risale al 2015. Questo errore non era certo voluto ma dobbiamo considerare la demografia di molte BIGtech: la maggioranza dei programmatori algoritmi/IA sono uomini. Per lo più caucasici, latini e indiani. Ben pochi africani. L’effetto scalare che uno o più algoritmi possono innestare in un’economia di piattaforme in Africa è, potenzialmente, devastante.

 

Rischi derivati da effetti collaterali di scelte aziendali.

Nel 2020 Gebru viene licenziata da Google. L’accusa è di aver pubblicato un paper che non è ai livelli degli standard qualitativi del gruppo. Il problema evidenziato da Gebru (uno dei maggiori esperti di IA mondiali, con un curriculum da far invidia a Kurweil) è che Google, per risparmiare la bolletta elettrica, rischiava di creare, involontariamente, algoritmi discriminanti.

Il concetto è piuttosto complesso e si suggerisce la lettura del paper in questione.

Il rischio spiegato da Gebru può essere riassunto in questo modo: se io devo addestrare un algoritmo devo “dargli da mangiare” molti dati. Dati, per esempio, sul modo di parlare comune in una regione, comportamenti etc.. Tuttavia questo lavoro richiede una elevata mole di elettricità per le macchine (server) che gestiscono l’intero processo. Se do in pasto all’algoritmo una quantità minore di dati (a rischio che l’algoritmo cresca “ignorante”) risparmierò energia e quindi soldi.

Il concetto spiegato da Gebru è stato poco apprezzato e, a quanto spiegano differenti media, il colosso dei motori di ricerca ha preferito allontanare la ricercatrice.

Resta però la domanda: se io creo un algoritmo “risparmiando” sulla sua educazione, quando questo algoritmo viene dispiegato in un ambiente dove cultura, modi di parlare, abitudini di spesa sono differenti dal suo “ambiente originale (si pensi gli Stati Uniti)” siamo sicuri che tale algoritmo funzionera’ correttamente?

 

Lo scenario descritto non è frutto di speculazioni sociali o fanta-sociali. Sta accadendo ormai da diversi anni e la necessità delle big-tech (occidentali prima ma le cinesi sono poco dietro) rischia di avere un effetto di neocolonialismo, le cui ricadute finali sulla popolazione, la crescita economica del continente africano e la sua evoluzione culturale, saranno fortemente influenzati. Se consideriamo che, in termini demografici, entro il 2100 l’Africa sarà l’ultima area del mondo a raggiungere la parità demografica, e la crescita di domande di beni e servizi in questo continente è prevista in crescita nei prossimi decenni, si comprende cosa vi sia in ballo e perché il colonialismo digitale è molto più rilevante, ma meno conosciuto, rispetto al “vecchio colonialismo”.

 

Twitter:  @enricoverga

Vuoi parlarne con me?

Mi trovi su Linkedin e la mia newsletter è qui (gratis)

 

 

Enrico Verga