Apple sta ritardando le sue funzioni di protezione dell’infanzia annunciate il mese scorso, compresa una funzione controversa che avrebbe scansionato le foto degli utenti alla ricerca di materiale pedopornografico (CSAM), in seguito alle intense critiche che i cambiamenti potrebbero diminuire la privacy degli utenti. I cambiamenti erano stati programmati per la fine di quest’anno.

“Il mese scorso abbiamo annunciato piani per funzioni destinate ad aiutare a proteggere i bambini dai predatori che utilizzano strumenti di comunicazione per reclutarli e sfruttarli, e limitare la diffusione di materiale pedopornografico”, ha detto Apple in una dichiarazione a The Verge. “Sulla base del feedback di clienti, gruppi di difesa, ricercatori e altri, abbiamo deciso di prendere ulteriore tempo nei prossimi mesi per raccogliere input e apportare miglioramenti prima di rilasciare queste caratteristiche di sicurezza per bambini criticamente importanti.”

Apple comunicato stampa originale sui cambiamenti, che avevano lo scopo di ridurre la proliferazione di materiale pedopornografico (CSAM), ha una dichiarazione simile in cima alla pagina. Quel comunicato dettagliava tre grandi cambiamenti in corso d’opera. Un cambiamento alla ricerca e Siri avrebbe puntato a risorse per prevenire CSAM se un utente cercava informazioni relative ad esso.

Gli altri due cambiamenti sono stati oggetto di un esame più significativo. Uno avrebbe avvertito i genitori quando i loro figli ricevevano o inviavano foto sessualmente esplicite e avrebbe offuscato quelle immagini per i bambini. L’altro avrebbe scansionato le immagini memorizzate nelle Foto di iCloud di un utente per CSAM e le avrebbe segnalate ai moderatori di Apple, che potrebbero poi riferire le segnalazioni al National Center for Missing and Exploited Children, o NCMEC.

Apple ha dettagliato a lungo il sistema di scansione delle foto di iCloud per dimostrare che non ha indebolito la privacy degli utenti. In breve, ha scansionato le foto memorizzate in iCloud Photos sul dispositivo iOS e le ha valutate insieme a un database di hash delle immagini CSAM conosciute dal NCMEC e da altre organizzazioni per la sicurezza dei bambini.

Tuttavia, molti esperti di privacy e sicurezza hanno pesantemente criticato l’azienda per il nuovo sistema, sostenendo che avrebbe potuto creare un sistema di sorveglianza sul dispositivo e che violava la fiducia che gli utenti avevano riposto in Apple per proteggere la privacy sul dispositivo.

La Electronic Frontier Foundation ha detto in un 5 agosto dichiarazione che il nuovo sistema, per quanto ben intenzionato, “romperebbe le promesse chiave della crittografia del messaggero stesso e aprirebbe la porta ad abusi più ampi”.

“Apple sta compromettendo il telefono che io e voi possediamo e utilizziamo”, ha detto Ben Thompson a Stratechery nella sua stessa critica, “senza che nessuno di noi abbia voce in capitolo”.

Source link