I laboratori di ricerca sull’intelligenza artificiale di Meta hanno creato un nuovo chatbot all’avanguardia e stanno permettendo ai membri del pubblico di parlare con il sistema per raccogliere feedback sulle sue capacità.

Il bot si chiama BlenderBot 3 e può essere consultato sul web. (BlenderBot 3 è in grado di fare chiacchiere in generale, dice Meta, ma anche di rispondere alle domande che si possono rivolgere a un assistente digitale, “dalle ricette di cibo sano alla ricerca di servizi per bambini in città”.

Il bot è un prototipo ed è stato costruito su Meta precedente lavoro con i cosiddetti modelli linguistici di grandi dimensioni o LLMS, software di generazione del testo potenti ma difettosi, di cui il GPT-3 di OpenAI è l’esempio più noto. Come tutti gli LLM, BlenderBot viene inizialmente addestrato su vaste serie di dati di testo, che analizza alla ricerca di modelli statistici per generare il linguaggio. Questi sistemi si sono dimostrati estremamente flessibili e sono stati utilizzati per una serie di scopi, dalla generazione di codice per i programmatori all’aiuto agli autori per scrivere il loro prossimo bestseller. Tuttavia, questi modelli hanno anche dei gravi difetti: sono rigurgitano pregiudizi nei loro dati di addestramento e spesso inventano risposte alle domande degli utenti (un grosso problema se vogliono essere utili come assistenti digitali).

Quest’ultimo problema è qualcosa che Meta vuole verificare con BlenderBot. Una caratteristica importante del chatbot è che è in grado di effettuare ricerche su Internet per parlare di argomenti specifici. Inoltre, cosa ancora più importante, gli utenti possono cliccare sulle sue risposte per vedere da dove ha preso le informazioni. BlenderBot 3, in altre parole, è in grado di citare le proprie fonti.

Rilasciando il chatbot al grande pubblico, Meta vuole raccogliere feedback sui vari problemi che affliggono i modelli linguistici di grandi dimensioni. Gli utenti che chattano con BlenderBot potranno segnalare qualsiasi risposta sospetta da parte del sistema e Meta afferma di aver lavorato duramente per “ridurre al minimo l’uso di linguaggio volgare, insulti e commenti culturalmente insensibili da parte dei bot”. Gli utenti dovranno scegliere di raccogliere i loro dati e, in tal caso, le loro conversazioni e i loro feedback saranno archiviati e successivamente pubblicati da Meta per essere utilizzati dalla comunità di ricerca sull’intelligenza artificiale.

“Siamo impegnati a rendere pubblici tutti i dati raccolti nella demo, nella speranza di poter migliorare l’IA conversazionale”, ha dichiarato Kurt Shuster, un ingegnere ricercatore di Meta che ha contribuito a creare BlenderBot 3. The Verge.

Un esempio di conversazione con BlenderBot 3 sul web. Gli utenti possono fornire feedback e reazioni a risposte specifiche.
Immagine: Meta

Rilasciare al pubblico prototipi di chatbot AI è stata storicamente una mossa rischiosa per le aziende tecnologiche. Nel 2016 Microsoft ha rilasciato su Twitter un chatbot chiamato Tay che imparava dalle interazioni con il pubblico. Come prevedibile, gli utenti di Twitter hanno presto istruito Tay a rigurgitare una serie di affermazioni razziste, antisemite e misogine. In risposta, Microsoft ha messo offline il bot meno di 24 ore dopo.

Meta sostiene che il mondo dell’intelligenza artificiale è cambiato molto dopo il malfunzionamento di Tay e che BlenderBot ha tutti i tipi di binari di sicurezza che dovrebbero impedire a Meta di ripetere gli errori di Microsoft.

In particolare, spiega Mary Williamson, responsabile della ricerca ingegneristica presso Facebook AI Research (FAIR), mentre Tay è stato progettato per imparare in tempo reale dalle interazioni degli utenti, BlenderBot è un modello statico. Ciò significa che è in grado di ricordare ciò che gli utenti dicono all’interno di una conversazione (e conserva queste informazioni tramite i cookie del browser se l’utente esce dal programma e vi ritorna in seguito), ma questi dati saranno utilizzati solo per migliorare il sistema in futuro.

“È solo la mia opinione personale, ma questo [Tay] è un episodio relativamente sfortunato, perché ha creato questo inverno dei chatbot in cui ogni istituzione aveva paura di mettere in circolazione chatbot pubblici per la ricerca”, racconta Williamson. The Verge.

Williamson afferma che la maggior parte dei chatbot in uso oggi sono ristretti e orientati al compito. Pensiamo ad esempio ai bot del servizio clienti, che spesso si limitano a presentare agli utenti un albero di dialogo preprogrammato, restringendo la loro domanda prima di consegnarli a un agente umano che possa effettivamente portare a termine il lavoro. Il vero premio è costruire un sistema in grado di condurre una conversazione libera e naturale come quella di un essere umano, e Meta sostiene che l’unico modo per raggiungere questo obiettivo è lasciare che i bot abbiano conversazioni libere e naturali.

“Questa mancanza di tolleranza nei confronti dei bot che dicono cose non utili, in senso lato, è deplorevole”, afferma Williamson. “E quello che stiamo cercando di fare è di rilasciare questo materiale in modo molto responsabile e di far progredire la ricerca”.

Oltre a mettere BlenderBot 3 sul web, Meta sta anche pubblicando il codice sottostante, il dataset di addestramento e le varianti più piccole del modello.. I ricercatori possono richiedere l’accesso al modello più grande, che ha 175 miliardi di parametri, attraverso un modulo qui.

Source link