A maggio, ho scritto qui che il problema della sicurezza dei bambini sulle piattaforme tecnologiche è peggiore di quanto immaginassimo. UN studio inquietante dell’organizzazione no-profit Thorn ha scoperto che la maggior parte dei bambini americani utilizzava app anni prima di quanto previsto e un quarto di loro ha affermato di aver avuto interazioni sessualmente esplicite con adulti. Ciò impone alle piattaforme l’onere di svolgere un lavoro migliore sia nell’identificare gli utenti minori dei loro servizi sia nel proteggerli dagli abusi che potrebbero trovarvi.

Instagram ora ne ha fatti alcuni promettenti mosse in quella direzione. Ieri, la società ha dichiarato che avrebbe:

  • Rendi gli account privati ​​per impostazione predefinita per i minori di 16 anni
  • Nascondi gli account degli adolescenti agli adulti che hanno avuto comportamenti sospetti, come essere stati ripetutamente bloccati da altri bambini
  • Impedisci agli inserzionisti di rivolgersi ai bambini con annunci basati sugli interessi. (C’erano prove che annunci per fumo, perdita di peso e gioco d’azzardo venivano tutti mostrati agli adolescenti)
  • Sviluppa strumenti di intelligenza artificiale per impedire agli utenti minorenni di registrarsi, rimuovere gli account esistenti di bambini di età inferiore a 13 anni e creare nuovi metodi di verifica dell’età

La società ha anche ribadito il suo piano per costruire una versione per bambini di Instagram, che ha ricevuto condanne da … molte persone.

Chiaramente, parte di questo rientra in “aspetta, non lo stavano già facendo?” territorio. E la mano di Instagram è stata probabilmente forzata dal crescente controllo su come i bambini vengono vittime di bullismo sull’app, in particolare nel Regno Unito. Ma come ha mostrato il rapporto Thorn, la maggior parte delle piattaforme ha fatto ben poco per identificare o rimuovere gli utenti minorenni: è un lavoro tecnicamente difficile e si ha la sensazione che alcune piattaforme abbiano la sensazione che stiano meglio a non saperlo.

Quindi complimenti a Instagram per aver preso sul serio la sfida e aver creato sistemi per affrontarla. Ecco Olivia Solon a NBC News che parla con il capo delle politiche pubbliche di Instagram, Karina Newton (nessuna relazione), su cosa sta costruendo l’azienda:

“Capire l’età delle persone su Internet è una sfida complessa”, ha affermato Newton. “Raccogliere i documenti d’identità delle persone non è la risposta al problema in quanto non è una soluzione giusta ed equa. L’accesso dipende molto da dove vivi e quanti anni hai. E le persone non vogliono necessariamente fornire i propri ID ai servizi Internet”.

Newton ha affermato che Instagram stava utilizzando l’intelligenza artificiale per comprendere meglio l’età cercando segnali basati sul testo, come i commenti sui compleanni degli utenti. La tecnologia non cerca di determinare l’età analizzando i volti delle persone nelle foto, ha detto.

Allo stesso tempo, è ancora imbarazzante per i giornalisti identificare problemi di sicurezza sulla piattaforma con una manciata di semplici ricerche. Ecco Jeff Horwitz oggi in Il giornale di Wall Street:

Una recensione del fine settimana di Il giornale di Wall Street degli attuali sistemi di raccomandazione e applicazione basati sull’intelligenza artificiale di Instagram hanno evidenziato le sfide che il suo approccio automatizzato deve affrontare. Invitato con l’hashtag #preteen, Instagram consigliava post taggati #preteenmodel e #preteenfeet, entrambi i quali presentavano commenti a volte grafici di quelli che sembravano essere utenti maschi adulti su foto con ragazze.

Instagram ha rimosso entrambi gli ultimi hashtag dalla sua funzione di ricerca in seguito alle query del Journal e ha affermato che i commenti inappropriati mostrano perché ha iniziato a cercare di impedire agli account adulti sospetti di interagire con i minori.

A parte gli hashtag problematici, la cosa più importante che Instagram sta facendo per la sicurezza dei bambini è smettere di fingere che i bambini non utilizzino il loro servizio. In troppi servizi, quella vista è ancora l’impostazione predefinita e ha creato punti ciechi che sia i bambini che i predatori possono navigare troppo facilmente. Instagram ha ora identificato alcuni di questi e si è impegnato pubblicamente a eliminarli. Mi piacerebbe vedere altre piattaforme seguire l’esempio qui – e se non lo fanno, dovrebbero essere pronti a spiegare perché.

Certo, mi piacerebbe anche vedere Instagram fare di più. Se il primo passo per le piattaforme è riconoscere di avere utenti minorenni, il secondo passo è costruire protezioni aggiuntive per loro, quelle che vanno oltre la loro sicurezza fisica ed emotiva. Gli studi hanno dimostrato, ad esempio, che gli adolescenti sono più creduloni e propensi a credere alle storie false rispetto agli adulti, e potrebbero avere maggiori probabilità di diffondere disinformazione. (Questo potrebbe spiegare perché TikTok è diventato una casa popolare per teorie cospirazioniste.)

Supponendo che sia così, una piattaforma veramente sicura per i giovani investirebbe anche nella salute del suo ambiente informativo. Come bonus, un ambiente informativo più sano sarebbe meglio per gli adulti e anche per la nostra democrazia.

“Quando costruisci per l’anello più debole, o costruisci per il più vulnerabile, migliori ciò che stai costruendo per ogni singola persona”, mi ha detto a maggio Julie Cordua, CEO di Thorn. Riconoscendo la realtà e costruendo per l’anello più debole, Instagram sta dando il buon esempio ai suoi colleghi.

Speriamo che seguano l’esempio e vadano oltre.


Questa rubrica è stata co-pubblicata con Platform, una newsletter quotidiana su Big Tech e democrazia.



Source link