Apple e il sistema contro la pedofilia: cosa non torna

8.7k 23
generica_porro_1200_3

di Mattia Chiaruttini

Apple negli ultimi anni ha basato la propria strategia commerciale sulla privacy. Sull’onda degli scandali che hanno coinvolto i suoi competitor, in particolare Facebook, l’azienda di Cupertino ha deciso dapprima di promuovere la messaggistica crittografata, poi ha introdotto un’importante novità dando la possibilità agli utenti di decidere se approvare o meno il tracciamento da parte delle app ai fini di marketing (dando fastidio per l’appunto a tutte le aziende che investono in sponsorizzate su Facebook).

https://youtu.be/8w4qPUSG17Y

Giovedì scorso, per un obiettivo sicuramente condivisibile, Apple ha annunciato di voler combattere gli abusi sessuali sui minori e, per farlo, introdurrà una serie di aggiornamenti tecnici che stanno facendo già discutere.

Dai prossimi sistemi operativi rilasciati da Apple in autunno (iOS15), e solamente per gli USA (se l’esperimento andrà bene, verrà estero a tutto il mondo), saranno attive delle misure che permetteranno di scansione le foto archiviate su iPhone e iCloud alla ricerca di immagini di abusi sui minori. Da un lato, questo sistema potrebbe aiutare le forze dell’ordine nelle indagini, dall’altro potrebbe aprire le porte a maggiori richieste legali e governative per i dati degli utenti.

Sicurezza bambini: le misure di Apple

Ci sono tre misure principali che Apple utilizzerà per perseguire il suo obiettivo:

  • la modifica riguardante l’app di ricerca di Apple e Siri. Qualora un utente ricercasse argomenti relativi all’abuso sessuale su minori, verrà messo in guardia da Apple e indirizzato a delle risorse per chiedere aiuto. E fin qui, niente di strano;
  • communication safety in iMessage, sui dispositivi dei minori. Cosa comporterà? Questo sistema, che non è attivo di default, analizzerà le foto che vengono scambiate tra gli utenti su iMessage nei dispositivi dei minori. Se verranno trovate delle fotografie esplicite, il sistema le oscurerà inviando una notifica ai genitori che hanno abilitato il Parental Control.
  • CSAM (Child Sexual Abuse Material): si occuperà di trovare, all’interno di iCloud Photo, delle immagini già note che derivano da abusi su minori. Cosa significa “già note”? Vuol dire che c’è già un database con tutte le immagini pedopornografiche (lo gestisce una non-profit finanziata dal governo statunitense) e Apple, tramite il sistema che ha sviluppato chiamato NeuralHash andrà ad analizzare le fotografie che abbiamo sul nostro cloud e se il sistema dovesse rilevare qualcosa di sospetto, e superata una certa soglia di segnalazioni, verrà inviata una segnalazione ad Apple. Delle persone poi, manualmente, verificheranno caso per caso la situazione e le foto “incriminate” e potranno a loro volta contattare le forze dell’ordine;

Quali sono le critiche ad Apple?

Alcuni sostengono che Apple non dovrebbe “ascoltare” ciò che diciamo a Siri o che cerchiamo, in nessun modo. Un’altra critica che viene mossa all’azienda, è che potrebbe portare alcuni genitori ad un controllo troppo serrato nei confronti della sessualità dei figli.

Il secondo punto, riguardante lo scambio di messaggi tra iPhone, ha sollevato le perplessità di diversi esperti del settore, tra cui la docente di Harvard Kendra Albert, secondo cui questa funzionalità permetterebbe ai genitori di controllare le conversazioni dei propri figli. Nel documento rilasciato da Apple non è chiaro come questo strumento si limiterà alla scansione delle immagini sessualmente esplicite e cosa succederà nel caso di falsi positivi. È altresì vero che l’opzione deve essere abilitata e che che il minore avrà 3 notifiche prima di poter vedere l’immagine: la prima indicherà che il contenuto è sensibile, la seconda chiederà una conferma e la terza li informerà che i genitori verranno avvisati.

La scansione CSAM è una novità?

Il terzo punto, riguardante il CSAM è quello più importante e al centro delle polemiche e non si può liquidare in poche righe. Piattaforme come Twitter, Facebook e Reddit scansionano già i file degli utenti (con uno strumento di proprietà Microsoft) e sono obbligate anch’esse a segnalare al CSAM situazioni sospette. La scansione CSAM, dunque, non è una novità ma cambia nelle modalità rispetto ad Apple. Quest’ultima, infatti, andrà ad esaminare i file non sui social ma sul cloud dei dispositivi. Apple non rivela qual è la soglia di foto che farà scattare l’intervento manuale, e questo è un primo dettaglio che dovrebbe essere chiarito.

L’intelligenza artificiale ha dimostrato più volte di poter fallire e questo potrebbe portare a chiusure involontarie degli account o a problemi indesiderati per gli utenti.

Queste nuove funzionalità sono il tentativo di Apple di trovare un compromesso tra la propria promessa di proteggere la privacy dei clienti e le continue richieste da parte di governi, forze dell’ordine e attivisti per la sicurezza dei bambini di maggiore assistenza nelle indagini penali, tra cui terrorismo e pornografia infantile.

Il rapporto tra aziende come Apple e Facebook e le forze dell’ordine non è dei migliori, in particolare è ancora più incrinato da quando l’azienda di Cupertino è finita in tribunale con l’FBI nel 2016 per l’accesso all’iPhone di un sospetto terrorista a seguito di una sparatoria a San Bernardino, in California.

“È pericolosa”: cosa dicono gli esperti

Gli esperti di Eff (Electronic Frontier Foundation) sono concordi negli sforzi per combattere gli abusi sui minori, ma la loro preoccupazione è che questa iniziativa finisca per eseguire scansioni che non si limitano al solo materiale pedopornografico ma possano sfociare anche nell’uso da parte dei governi dei dati personali sullo schieramento politico o per reprimere l’espressione sessuale. Apple su questo fronte ha rassicurato gli utenti dicendo di che rifiuterà qualsiasi richiesta da parte dei governi “di creare e implementare modifiche che degradano la privacy degli utenti”.

Un gruppo di esperti tech e privacy ha scritto una lettera aperta che ad oggi è stata firmata da oltre 7mila persone, sollevando preoccupazioni sulla nuova politica di Apple che, a detta loro, minerà la sicurezza della crittografia end-to-en e comprometterà la privacy degli utenti. Siamo sicuri che andrà così? Non sarebbe la prima volta che Apple si adegua alle richieste governative di alcuni paesi per non perdere opportunità commerciali. Infatti, in Cina migliaia di app sono state cancellate dall’App Store e in paesi come Arabia Saudita, Pakistan e anche a Dubai gli iPhone vengono venduti senza FaceTime perché le telefonate crittografie non sono consentite.

“È un’idea assolutamente spaventosa, perché porterà a un controllo di massa sui nostri telefoni e laptop”, ha affermato Ross Anderson, professore di ingegneria presso l’Università di Cambridge.

Sebbene il sistema sia attualmente addestrato per individuare gli abusi sessuali su minori, potrebbe essere adattato per scansionare qualsiasi altra immagine e testo mirato, ad esempio decapitazioni terroristiche o segni antigovernativi durante le proteste, sottolineano i ricercatori. Il precedente di Apple potrebbe anche aumentare la pressione su altre aziende tecnologiche affinché utilizzino tecniche simili.

Stando a quanto scrive Ben Thompson su Stratechery , il problema non è se Apple stia solo inviando notifiche ai genitori o limitando le sue ricerche a specifiche categorie di contenuti ma che l’azienda sta cercando i dati prima che escano dal tuo telefono.

Sempre Thompson, afferma che “Apple sta compromettendo il telefono che tu e io possediamo e gestiamo, senza che nessuno di noi abbia voce in capitolo. Sì, puoi disattivare le foto di iCloud per disabilitare la scansione di Apple, ma questa è una decisione politica; la capacità di raggiungere il telefono di un utente ora esiste e non c’è nulla che un utente iPhone possa fare per sbarazzarsene”.

“I governi lo richiederanno a tutti”, ha affermato Matthew Green, professore di sicurezza alla Johns Hopkins University. Alec Muffett, ricercatore di sicurezza e attivista per la privacy che ha lavorato per Facebook e Deliveroo, ha detto che la mossa di Apple è stata un “passo enorme indietro per la privacy delle persone”. “Apple sta tornando indietro sulla privacy per consentire il 1984”, ha aggiunto.

Secondo Edward Snowden, dopo l’annuncio di Apple “esperti di tutto il mondo hanno lanciato l’allarme su come le misure proposte da Apple creino un precedente dove i nostri dispositivi personali diventano uno strumento radicalmente nuovo per la sorveglianza invasiva”. I sistemi di archiviazione delle foto basati su cloud e i siti di social network già scansionano immagini di abusi sui minori, ma tale processo diventa più complesso quando si tenta di accedere ai dati archiviati su un dispositivo personale.

Il sistema di Apple è meno invasivo in quanto lo screening viene effettuato al telefono e “solo se c’è una corrispondenza viene inviata una notifica a coloro che effettuano la ricerca”, ha affermato Alan Woodward, professore di sicurezza informatica presso l’Università del Surrey. In risposta, Sarah Jamie Lewis, direttrice della Open Privacy Research Society, si chiede se nel momento in cui questa mossa di Apple dovesse funzionare, “quanto pensate che passerà prima che le altre aziende adotteranno lo stesso metodo?”.

Anche il CEO di Whatsapp, Will Cathcart sostiene “l’approccio che stanno adottando introduce qualcosa di molto preoccupante nel mondo. Invece di concentrarsi sul rendere più semplice alle persone segnalare i contenuti, Apple ha creato un software in grado di scansione tutte le foto private sul telefono, anche le foto che non hai condiviso con nessuno. Questa non è privacy. Cosa accadrà quando le società di spyware troveranno un modo per sfruttare questo software? Cosa succede se qualcuno scopre come sfruttare questo nuovo sistema?”.

Conclusioni: è giusta o sbagliata questa mossa?

Il tema è molto delicato e apre a tantissimi scenari. Da un lato, Apple è stata accusata in passato dal New York Times per i bassi tassi di segnalazione rispetto a Facebook, Google o Snapchat per la protezione dei bambini. All’interno dell’azienda non si respira un bel clima, infatti è stato fatto girare una nota dove i dipendenti vengono avvisati sui risvolti mediatici di questa azione e di “alzare la voce” pensando alle “tante migliaia di bambini” che verranno salvati dalla funzionalità. Dall’altro lato, le numerose critiche degli esperti dovrebbero far riflettere sui risvolti che potrebbero esserci in futuro. Sicuramente ci saranno tantissimi cambiamenti prima che la cosa vada in porto, ma rischia di avere un forte impatto sull’immagine del brand e sugli sforzi fatti sin qua per garantire privacy agli utenti che utilizzano i dispositivi Apple.

Secondo alcuni questo è un non problema perché la funzione deve essere attivata dai genitori, in parte vera ma solo per la parte di controllo su iMessage. Il controllo su iCloud è un controllo che viene fatto che tu lo voglia o meno. Apple ora ha una possibilità, che prima non aveva e che può scatenare un pericoloso precedente. Questo significa un cambiamento nelle modalità di conservazione dei dati.

“Se non ti piace comprati un altro smartphone”, sostengono altri. Un’affermazione che non meriterebbe alcuna risposta per il grado di qualunquismo. Peccato che esistano delle leggi che regolamentano il trattamento dei dati personali, e al momento questi dati siano criptati e illeggibili anche per la stessa Apple.

“I dispositivi sanno tutti di noi, che problemi vi fate”. Rispondiamo anche a questi geni del male. Una cosa sono i dati che cediamo alle piattaforme consapevolmente e un’altra i dati privati. Anche in questo caso il fine non giustifica i mezzi, e questa tecnologia, senza finire in strane teorie complottiste, potrebbe essere usata per fini molto meno nobili. Pensiamo ai regimi autoritari che da un giorno all’altro scoprono che Apple è in grado di controllare ciascun device Apple, non limitiamo il ragionamento all’Italia o agli Stati Uniti. I telefoni dei cittadini di paesi sottoposti a dittatura potrebbero venire “controllati” per trovare contenuti che vanno contro il regime, con tutte le conseguenze del caso.

Nel 2016, Apple scrisse questo comunicato in cui diceva che “sarebbe sbagliato per il governo costringerci a creare una backdoor nei nostri prodotti. E alla fine, temiamo che questa richiesta possa minare le stesse libertà e libertà che il nostro governo dovrebbe proteggere”. Parole che, ora più che mai, ritornano attuali.

Ti è piaciuto questo articolo? Leggi anche

Seguici sui nostri canali
Exit mobile version