Foto: GIUSEPPE CACACE / AFP (Getty Images)

Dopo aver affrontato un sacco di critiche, Apple ha raddoppiato e ha difeso i suoi piani per il lancio nuovi strumenti controversi finalizzato all’identificazione e alla segnalazione di materiale pedopornografico (o CSAM) sulle sue piattaforme.

La scorsa settimana, la società ha annunciato diversi aggiornamenti in sospeso, delineandoli in un post sul blog intitolato “Protezioni ampliate per i bambini.” Queste nuove funzionalità, che verranno implementate entro la fine dell’anno con il rilascio di iOS 15 e iPadOS 15, sono progettate per utilizzare la scansione algoritmica per cercare e identificare materiale pedopornografico sui dispositivi degli utenti. Uno strumento eseguirà la scansione delle foto sul dispositivo che sono state condivise con iCloud alla ricerca di segni di CSAM, mentre l’altra funzione eseguirà la scansione degli iMessage inviati da e verso gli account dei bambini nel tentativo di impedire ai minori di condividere o ricevere messaggi che includono immagini sessualmente esplicite. Abbiamo fatto un resoconto più dettagliato su entrambe le funzionalità e le preoccupazioni su di esse qui.

La società ha avuto a malapena il tempo di annunciare i suoi piani prima di essere accolta un grido clamoroso dalle organizzazioni per le libertà civili, che hanno caratterizzato i cambiamenti proposti come ben intenzionati ma in fin dei conti un pendio scivoloso verso una pericolosa erosione della privacy personale.

Lunedì, Apple pubblicato una risposta a molte delle preoccupazioni che sono state sollevate. La società ha specificamente negato che i suoi strumenti di scansione potrebbero un giorno essere riutilizzati per cercare altri tipi di materiale sui telefoni e sui computer degli utenti diversi da CSAM. I critici si sono preoccupati che un governo (il nostro o quello di qualcun altro) potesse fare pressione su Apple per aggiungere o modificare le nuove funzionalità, per renderle, ad esempio, uno strumento più ampio di applicazione della legge.

Tuttavia, in un raro caso di una società che ha promesso fermamente di non fare qualcosa, Apple ha affermato definitivamente che non avrebbe ampliato la portata delle sue capacità di scansione. Secondo la società:

Apple rifiuterà tali richieste [from a government]. La capacità di rilevamento CSAM di Apple è progettata esclusivamente per rilevare immagini CSAM note archiviate in iCloud Photos che sono state identificate da esperti di NCMEC e altri gruppi per la sicurezza dei bambini. Abbiamo già affrontato richieste di creare e implementare modifiche imposte dal governo che degradano la privacy degli utenti e abbiamo fermamente rifiutato tali richieste. Continueremo a rifiutarli in futuro.

Durante una sessione di domande e risposte di follow-up con i giornalisti lunedì, Apple ha ulteriormente chiarito che le funzionalità vengono lanciate solo negli Stati Uniti, al momento. Mentre sono state sollevate alcune preoccupazioni sul fatto che un governo straniero possa corrompere o sovvertire questi nuovi strumenti per impiegarli come forma di sorveglianza, Apple ha detto lunedì che avrebbe condotto attentamente valutazioni legali su base nazionale prima di rilasciare il strumenti all’estero, per garantire che non vi siano possibilità di abuso.

Comprensibilmente, tutta questa faccenda ha confuso molte persone e ci sono ancora domande su come funzioneranno effettivamente queste funzionalità e su cosa ciò significhi per la tua privacy e l’autonomia del dispositivo. Ecco un paio di punti che Apple ha recentemente chiarito:

  • Stranamente, iCloud deve essere attivato affinché la sua funzione di rilevamento CSAM funzioni effettivamente. C’è stata un po’ di confusione su questo punto, ma essenzialmente Apple sta solo cercando contenuti condivisi con il suo sistema cloud. I critici hanno sottolineato che ciò sembrerebbe rendere estremamente facile per gli autori di abusi eludere la rete di spionaggio informale che Apple ha creato, poiché tutto ciò che dovrebbero fare per nascondere i contenuti CSAM sul proprio telefono sarebbe rinunciare a iCloud. Apple ha detto lunedì che crede ancora che il sistema sarà efficace.
  • Apple non sta caricando un database di pedopornografia sul tuo telefono. Un altro punto che la società è stata costretta a chiarire lunedì è che, in effetti, non scaricherà CSAM effettivo sul tuo dispositivo. Invece, utilizza un database di “hash”, impronte digitali di immagini specifiche e note di abusi sui minori, che sono rappresentate come codice numerico. Quel codice verrà caricato nel sistema operativo del telefono, che consente di confrontare automaticamente le immagini caricate nel cloud con gli hash nel database. Se non sono una corrispondenza identica, tuttavia, ad Apple non interessa.
  • iCloud non si limiterà a scansionare nuove foto, ma prevede di scansionare tutte le foto attualmente nel suo sistema cloud. Oltre a scansionare le foto che verranno caricate su iCloud in futuro, Apple prevede anche di scansionare tutte le foto attualmente archiviate sui suoi server cloud. Durante la telefonata di lunedì con i giornalisti, Apple ha ribadito che era così.
  • Apple afferma che l’aggiornamento di iMessage non condivide alcuna informazione con Apple o con le forze dell’ordine. Secondo Apple, la funzione aggiornata per iMessage non condivide nessuna delle tue informazioni personali con l’azienda, né avvisa le forze dell’ordine. Invece, avvisa semplicemente un genitore se il loro bambino ha inviato o ricevuto un’immagine di testo che l’algoritmo di Apple ha ritenuto di natura sessuale. “Apple non ottiene mai l’accesso alle comunicazioni a causa di questa funzione in Messaggi. Questa funzione non condivide alcuna informazione con Apple, NCMEC o forze dell’ordine”, ha affermato la società. La funzione è disponibile solo per gli account che sono stati impostati come famiglie in iCloud, afferma la società.

Nonostante le assicurazioni, i sostenitori della privacy e gli esperti di sicurezza non sono ancora molto impressionati e alcuni sono più che allarmati. In particolare, lunedì, il noto esperto di sicurezza Matthew Green ha ipotizzato il seguente scenario ipotetico, abbastanza controverso da ispirare un piccolo argomento su Twitter tra Edward Snowden e l’ex capo della sicurezza di Facebook Alex Stamos nella sezione di risposta:

Quindi, basti dire che molte persone hanno ancora domande. Siamo tutti in un territorio piuttosto sconosciuto e disordinato qui. Sebbene sia impossibile centrare il punto della missione di Apple, la potenza della tecnologia che sta implementando ha causato allarme, per non dire altro.

.

Source link