È arrivato il primo equivalente open source di ChatGPT di OpenAI, ma non è detto che non si riesca a farlo funzionare sul proprio computer portatile.

Questa settimana Philip Wang, lo sviluppatore responsabile del reverse engineering di sistemi di intelligenza artificiale chiusi, tra cui Make-A-Video di Meta, ha rilasciato PaLM + RLHF, un modello di generazione di testo che si comporta in modo simile a ChatGPT. Il sistema combina PaLM, un modello linguistico di grandi dimensioni di Google e una tecnica chiamata Reinforcement Learning with Human Feedback (RLHF, in breve) per creare un sistema in grado di svolgere praticamente tutti i compiti di ChatGPT, compresa la stesura di e-mail e la proposta di codice informatico.

Ma PaLM + RLHF non è pre-addestrato. Vale a dire, il sistema non è stato addestrato sui dati di esempio provenienti dal web necessari per il suo effettivo funzionamento. Scaricando PaLM + RLHF non si otterrà magicamente un’esperienza simile a quella di ChatGPT: ciò richiederebbe la compilazione di gigabyte di testo da cui il modello possa apprendere e la ricerca di un hardware abbastanza robusto da gestire il carico di lavoro dell’addestramento.

Come ChatGPT, PaLM + RLHF è essenzialmente uno strumento statistico per prevedere le parole. Quando viene alimentato con un numero enorme di esempi di dati di addestramento (ad esempio, post di Reddit, articoli di notizie e libri elettronici), PaLM + RLHF apprende la probabilità che le parole si presentino in base a modelli come il contesto semantico del testo circostante.

ChatGPT e PaLM + RLHF condividono una salsa speciale nel Reinforcement Learning with Human Feedback, una tecnica che mira ad allineare meglio i modelli linguistici con ciò che gli utenti desiderano che realizzino. L’RLHF prevede l’addestramento di un modello linguistico – nel caso di PaLM + RLHF, PaLM – e la sua messa a punto su un set di dati che include richieste (ad esempio, “Spiega l’apprendimento automatico a un bambino di sei anni”) abbinate a ciò che i volontari umani si aspettano che il modello dica (ad esempio, “L’apprendimento automatico è una forma di AI…”). Le richieste di cui sopra vengono quindi fornite al modello perfezionato, che genera diverse risposte, e i volontari classificano tutte le risposte dalla migliore alla peggiore. Infine, le classifiche vengono utilizzate per addestrare un “modello di ricompensa” che prende le risposte del modello originale e le ordina in ordine di preferenza, filtrando le risposte migliori a una determinata richiesta.

La raccolta dei dati di addestramento è un processo costoso. E l’addestramento stesso non è economico. Il PaLM ha una dimensione di 540 miliardi di parametri, “parametri” che si riferiscono alle parti del modello linguistico apprese dai dati di addestramento. A 2020 studio ha stimato in 1,6 milioni di dollari le spese per lo sviluppo di un modello di generazione del testo con solo 1,5 miliardi di parametri. Per addestrare il modello open source Bloom, che ha 176 miliardi di parametri, sono stati necessari tre mesi utilizzando 384 GPU Nvidia A100; una singola A100 costa migliaia di dollari.

Anche l’esecuzione di un modello addestrato delle dimensioni di PaLM + RLHF non è banale. Bloom richiede un PC dedicato con circa otto GPU A100. Le alternative in cloud sono costose, con calcoli retrospettivi trovare il costo dell’esecuzione del GPT-3 di OpenAI, che genera testi con circa 175 miliardi di parametri, su una singola istanza di Amazon Web Services è di circa 87.000 dollari all’anno.

Sebastian Raschka, ricercatore nel campo dell’intelligenza artificiale, ha sottolineato in un articolo di LinkedIn post su PaLM + RLHF che anche la scalabilità dei flussi di lavoro di sviluppo necessari potrebbe rivelarsi una sfida. “Anche se qualcuno vi fornisce 500 GPU per addestrare questo modello, dovete comunque occuparvi dell’infrastruttura e avere un framework software in grado di gestirlo”, ha detto. “È ovviamente possibile, ma al momento è un grande sforzo (naturalmente stiamo sviluppando dei framework per semplificare il tutto, ma non è ancora banale)”.

Tutto questo per dire che PaLM + RLHF non sostituirà ChatGPT oggi, a meno che un’impresa (o una persona) ben finanziata non si prenda la briga di formarlo e renderlo disponibile pubblicamente.

Per quanto riguarda le notizie migliori, molti altri sforzi per replicare ChatGPT stanno procedendo a ritmo serrato, tra cui uno guidato da un gruppo di ricerca chiamato CarperAI. In collaborazione con l’organizzazione di ricerca sull’IA aperta EleutherAI e con le startup Scale AI e Hugging Face, CarperAI intende rilasciare il primo modello di IA simile a ChatGPT pronto per l’uso e addestrato con feedback umano.

LAION, l’organizzazione no-profit che ha fornito il set di dati iniziale utilizzato per addestrare Stable Diffusion, è anche a capo di un progetto per replicare ChatGPT utilizzando le più recenti tecniche di apprendimento automatico. Ambiziosamente, LAION mira a costruire un “assistente del futuro”, che non si limiti a scrivere e-mail e lettere di presentazione, ma “svolga un lavoro significativo, utilizzi le API, ricerchi dinamicamente informazioni e molto altro ancora”. È ancora nelle fasi iniziali. Ma un sito GitHub pagina con le risorse per il progetto è stata aperta qualche settimana fa.

Source link