emporia

Apple ha dichiarato che, per il momento, ha rimandato o bloccato il debutto del sistema di controllo delle immagini salvate su iCloud per individuare contenuti pedopornografici. Secondo l’azienda ci vorrà più tempo per raccogliere feedback e migliorare le funzionalità di sicurezza dei bambini proposte in questa nuova piattaforma automatica di controllo sui file, anche in seguito alle critiche ricevute in merito alla privacy a cui si aggiungono altri motivi interni ed esterni rispetto alla società di Cupertino.

In agosto Apple ha presentato un sistema basato sull’intelligenza artificiale e il machine learning per controllare i telefoni e i computer degli utenti statunitensi al fine di cercare immagini di abusi sessuali su minori e simili caricate da iOS e macOS su iCloud. Ciò ha scatenato una reazione globale da parte di una vasta gamma di gruppi per i diritti, con dipendenti che hanno anche criticato il piano internamente. Per saperne di più vi invitiamo a leggere il nostro approfondimento.

I critici (tra cui Edward Snowden in un’approfondita analisi che vi abbiamo spiegato in questo articolo) hanno sostenuto che la funzione potrebbe essere sfruttata da governi repressivi che cercano altro tipo di contenuti e materiali per incrementare la censura o supportare gli arresti. Sarebbe anche impossibile per i ricercatori esterni determinare se Apple stesse controllando solo una piccola serie specifica di contenuti sul dispositivo, per esempio quelli pedo-pornografici, oppure anche altre fattispecie.

Apple ha ribattuto che avrebbe consentito ai ricercatori di sicurezza di verificare le sue affermazioni, ma il 3 settembre la società ha affermato che ci vorrà più tempo per implementare questa piattaforma al fine di apportare modifiche al sistema.

“Sulla base del feedback di clienti, gruppi di difesa, ricercatori e altri, abbiamo deciso di dedicare più tempo nei prossimi mesi per raccogliere input e apportare miglioramenti prima di rilasciare queste funzione di sicurezza per i bambini di fondamentale importanza”, ha affermato Apple in una nota.

Matthew Green, un ricercatore di sicurezza informatica presso la Johns Hopkins University che aveva criticato la piattaforma di Apple, ha affermato che il rinvio è stato “promettente”.

Green ha scritto su Twitter che Apple dovrebbe “essere chiara sul motivo per cui stai eseguendo la scansione e su cosa stai operando. Passare dalla scansione di nulla (tranne gli allegati di posta elettronica) alla scansione della libreria di foto private di tutti è stato un enorme delta. Devi giustificare una escalation come questa”.

Negli ultimi giorni Apple stava giocando in difesa cercando di spiegare e motivare le sue scelte. Da Cupertino non si sono limitati in fatto di spiegazioni e documenti per dimostrare che i rischi di falsi rilevamenti sarebbero stati bassi.

Aveva pianificato di implementare la funzione di scansione delle immagini pedopornografiche sui sistemi operativi per iPhone, iPad e Mac con una serie di aggiornamenti software entro la fine dell’anno negli Stati Uniti. Il controllo sarebbe entrato in azione solo con la sincronizzazione dei contenuti su iCloud, come vi abbiamo spiegato qui.