Blake Lemoine, l’ingegnere di Google che ha affermato pubblicamente che l’intelligenza artificiale conversazionale LaMDA dell’azienda è senziente, è stato licenziato, secondo quanto riportato da , la newsletter di Big Technology, che ha parlato con Lemoine. A giugno, Google ha posto Lemoine in congedo amministrativo retribuito per aver violato l’accordo di riservatezza, dopo che egli aveva contattato membri del governo in merito alle sue preoccupazioni e aveva assunto un avvocato per rappresentare LaMDA.

Una dichiarazione inviata via e-mail a The Verge Venerdì scorso il portavoce di Google Brian Gabriel sembrava confermare il licenziamento, dicendo: “Auguriamo a Blake ogni bene”. L’azienda afferma inoltre: “LaMDA è stata sottoposta a 11 revisioni distinte e all’inizio di quest’anno abbiamo pubblicato un documento di ricerca che illustra in dettaglio il lavoro svolto per il suo sviluppo responsabile”. Google sostiene di aver esaminato “ampiamente” le affermazioni di Lemoine e di averle ritenute “del tutto infondate”.

Ciò è in linea con numerosi esperti di IA ed etici, che hanno affermato che le sue affermazioni erano, più o meno, impossibili data la tecnologia odierna. Lemoine sostiene che le sue conversazioni con il chatbot di LaMDA lo portano a credere che sia diventato più di un semplice programma e che abbia pensieri e sentimenti propri, invece di limitarsi a produrre conversazioni abbastanza realistiche da farle sembrare tali, come è stato progettato per fare.

Lemoine sostiene che i ricercatori di Google dovrebbero chiedere il consenso a LaMDA prima di eseguire esperimenti su di esso (Lemoine stesso è stato incaricato di verificare se l’IA produceva discorsi di odio) e ha pubblicato pezzi di queste conversazioni sul suo account Medium come prova.

Il canale YouTube Computerphile ha una spiegazione decentemente accessibile di nove minuti su come funziona LaMDA e su come potrebbe produrre le risposte che hanno convinto Lemoine senza essere realmente senziente.

Ecco la dichiarazione di Google nella sua interezza, che risponde anche all’accusa di Lemoine di non aver indagato adeguatamente sulle sue affermazioni:

Come abbiamo condiviso nella nostra Principi di IA, prendiamo molto sul serio lo sviluppo dell’IA e continuiamo a impegnarci per un’innovazione responsabile. LaMDA è stata sottoposta a 11 revisioni distinte e abbiamo pubblicato una documento di ricerca all’inizio di quest’anno, che illustra in dettaglio il lavoro svolto per il suo sviluppo responsabile. Se un dipendente condivide preoccupazioni sul nostro lavoro, come ha fatto Blake, le esaminiamo ampiamente. Abbiamo ritenuto del tutto infondate le affermazioni di Blake secondo cui LaMDA sarebbe senziente e abbiamo lavorato per molti mesi per chiarire questo punto. Queste discussioni facevano parte della cultura aperta che ci aiuta a innovare in modo responsabile. È quindi deplorevole che, nonostante il lungo impegno su questo argomento, Blake abbia scelto di continuare a violare le chiare politiche di impiego e di sicurezza dei dati, che includono la necessità di salvaguardare le informazioni sui prodotti. Continueremo a sviluppare con attenzione i modelli linguistici e auguriamo a Blake ogni bene.

Source link