Abbiamo visto esempi di deepfakes usati quasi per cambiare il corso della storia, quando a marzo è emerso un filmato di Zelensky che diceva all’esercito ucraino di deporre le armi in seguito all’invasione russa. Fortunatamente, il filmato era approssimativo e l’esercito non se l’è bevuta.

E ora, se si considera ciò che accade quando un mondo post-covide, che ha dato vita a molte opportunità di lavoro a distanza per i nomadi digitali, si fonde con l’intelligenza artificiale, l’FBI Internet Crime Complaint Center (IC3) ha la risposta per voi.

È emerso che ora le persone usano i deepfake per comportarsi come qualcun altro durante i colloqui di lavoro per le posizioni remote. E questa non è la parte peggiore.

L’FBI ha rivelato in un annuncio pubblico il 28 giugno che ha rilevato un aumento delle denunce che riportano l’uso di deepfakes e il furto di informazioni di identificazione personale (PII). I deepfakes comprendono video, immagini o registrazioni manipolate per rappresentare erroneamente un’azione che in realtà non è stata compiuta. Le posizioni segnalate includono anche lavori legati all’informatica e alla programmazione di computer, database e software. Alcuni di questi annunci di lavoro contengono l’accesso alle informazioni personali dei clienti, ai dati finanziari, ai database informatici aziendali e alle informazioni proprietarie, che potrebbero portare a scenari indesiderati per le persone o le aziende in questione.

Le persone che hanno scelto di utilizzare i deepfake durante i colloqui probabilmente non si sono accorte che le azioni e i movimenti delle labbra ripresi dalla telecamera non corrispondono completamente all’audio. L’FBI ha anche riferito che tosse, starnuti e azioni simili non sono sincronizzati con i filmati visualizzati durante le interviste.

I deepfake sono il nemico?

Già nel 2020, uno studio pstabilito in Scienza del crimine ha classificato i contenuti audio e video falsi, o in altre parole i deepfakes, come la più pericolosa minaccia criminale dell’IA. Lo studio ha suggerito che gli esseri umani hanno una forte tendenza a credere ai propri occhi e alle proprie orecchie, come previsto, il che conferisce credibilità alle immagini e all’audio. A lungo andare, potrebbe diventare molto facile screditare una figura pubblica, estrarre fondi impersonando persone diverse, e questo potrebbe portare alla sfiducia nei confronti di tali contenuti e provocare danni alla società.

“A differenza di molti reati tradizionali, i crimini nel regno digitale possono essere facilmente condivisi, ripetuti e persino venduti, consentendo di commercializzare le tecniche criminali e di fornire il crimine come servizio. Ciò significa che i criminali potrebbero essere in grado di esternalizzare gli aspetti più impegnativi dei loro crimini basati sull’intelligenza artificiale”, ha dichiarato il primo autore. Matthew Caldwell.

Dannata tecnologia, a volte fai paura. Ma non preoccuparti, non sei tu, siamo noi.

Source link