Gli utenti del generatore di immagini di intelligenza artificiale Stable Diffusion sono arrabbiati per una aggiornamento del software che “riduce” la sua capacità di generare output NSFW e immagini nello stile di specifici artisti.

Stability AI, la società che finanzia e diffonde il software, ha annunciato la versione 2 di Stable Diffusion. questa mattina presto ora europea. L’aggiornamento reingegnerizza i componenti chiave del modello e migliora alcune funzionalità come l’upscaling (la possibilità di aumentare la risoluzione delle immagini) e l’in-painting (la modifica consapevole del contesto). Tuttavia, le modifiche rendono più difficile per Stable Diffusion generare alcuni tipi di immagini che hanno suscitato polemiche e critiche. Queste includono immagini di nudo e pornografiche, immagini fotorealistiche di celebrità e immagini che imitano le opere di artisti specifici.

“Hanno snaturato il modello”.

“Hanno modificato il modello”. ha commentato un utente su un subreddit di Diffusione Stabile. “È una sorpresa spiacevole”. ha detto un altro sul server Discord ufficiale del software.

Gli utenti notano che chiedendo alla versione 2 di Stable Diffusion di generare immagini nello stile di Greg Rutkowski – un artista digitale il cui nome ha è diventato un’abbreviazione letterale per la produzione di immagini di alta qualità. – non crea più opere d’arte che assomiglino molto alle sue. (Confronta questi due immagini, ad esempio). “Che cosa hai fatto a greg😔,” ha commentato un utente su Discord.

Le modifiche apportate a Stable Diffusion sono degne di nota, poiché il software è estremamente influente e contribuisce a definire le norme nel panorama dell’IA generativa in rapida evoluzione. A differenza di modelli rivali come DALL-E di OpenAI, Stable Diffusion è open source. Ciò consente alla comunità di migliorare rapidamente lo strumento e agli sviluppatori di integrarlo gratuitamente nei loro prodotti. Ma significa anche che Stable Diffusion ha meno vincoli nelle modalità di utilizzo e, di conseguenza, ha attirato critiche significative. In particolare, molti artisti, come Rutkowski, sono infastiditi dal fatto che Stable Diffusion e altri modelli di generazione di immagini siano stati addestrati sulle loro opere senza il loro consenso e possano ora riprodurre i loro stili. Se questo tipo di copia abilitata dall’IA sia legale o meno è una questione aperta. Secondo gli esperti, l’addestramento di modelli di intelligenza artificiale su dati protetti da copyright è probabilmente legale, ma alcuni casi di utilizzo potrebbero essere contestati in tribunale.

Un confronto della capacità di Stable Diffusion di generare immagini che assomigliano a specifici artisti.
Immagine: lkewis via Reddit

Gli utenti di Stable Diffusion hanno ipotizzato che le modifiche al modello siano state apportate da Stability AI per mitigare queste potenziali sfide legali. Tuttavia, quando The Verge ha chiesto al fondatore di Stability AI Emad Mostaque se questo fosse il caso in una chat privata, Mostaque non ha risposto. Mostaque ha però confermato che Stability AI non ha rimosso le immagini degli artisti dai dati di addestramento (come molti utenti hanno ipotizzato). Invece, la ridotta capacità del modello di copiare gli artisti è il risultato delle modifiche apportate al modo in cui il software codifica e recupera i dati.

“Non c’è stato un filtraggio specifico degli artisti”, ha dichiarato Mostaque a The Verge. (Ha anche approfondito i fondamenti tecnici di questi cambiamenti in un messaggio pubblicato su Discord.)

Ciò che è stato rimosso dai dati di addestramento di Stable Diffusion, tuttavia, sono le immagini di nudo e pornografiche. I generatori di immagini dell’intelligenza artificiale vengono già utilizzati per generare NSFW, comprese immagini fotorealistiche e in stile anime. Tuttavia, questi modelli possono essere utilizzati anche per generare immagini NSFW che assomigliano a individui specifici (note come pornografia non consensuale) e immagini di abusi su minori.

Discutendo delle modifiche apportate alla versione 2 di Diffusione Stabile nel Discord ufficiale del software, Mostaque note quest’ultimo caso d’uso è la ragione per filtrare i contenuti NSFW. “Non si possono avere bambini & nsfw in un modello aperto”, dice Mostaque (poiché i due tipi di immagini possono essere combinati per creare materiale di abuso sessuale su minori), “quindi sbarazzatevi dei bambini o sbarazzatevi del nsfw”.

Uno utente sul subreddit di Stable Diffusion ha detto che la rimozione dei contenuti NSFW è “censura” e “contro lo spirito della comunità Open Source”. Ha detto l’utente: “Scegliere di fare contenuti NSFW o meno, dovrebbe essere nelle mani dell’utente finale, no [sic] in un modello limitato/censurato”. Altri, invece, hanno fatto notare che la natura open source di Stable Diffusion significa che i dati di addestramento per il nudo possono facilmente essere aggiunti nelle versioni di terze parti e che il nuovo software non influisce sulle versioni precedenti: “Non spaventatevi per la mancanza di artisti/NSFW nella V2.0, sarete in grado di generare le vostre celebrità preferite nude presto & in ogni caso potete già farlo”.

Sebbene le modifiche apportate alla versione 2 di Stable Diffusion abbiano infastidito alcuni utenti, molti altri ne hanno lodato il potenziale di maggiore funzionalità, come la nuova capacità del software di produrre contenuti che corrispondono alla profondità di un’immagine esistente. Altri hanno detto che le modifiche hanno reso più difficile produrre rapidamente immagini di alta qualità, ma che la comunità probabilmente aggiungerà nuovamente questa funzionalità nelle versioni future. Come ha detto un utente su Discord ha riassunto i cambiamenti: “Per quanto riguarda la mia esperienza, la versione 2.0 è migliore nell’interpretare i suggerimenti e nel creare immagini fotografiche coerenti. tuttavia, non creerà tette rutkowski.”

Lo stesso Mostaque ha paragonato il nuovo modello a una base per pizza che consente a chiunque di aggiungere ingredienti (cioè dati di addestramento) a propria scelta. “Un buon modello dovrebbe essere utilizzabile da tutti e se volete aggiungere qualcosa, aggiungetelo”, ha detto Mostaque. ha detto su Discord.

Mostaque ha anche detto che le future versioni di Stable Diffusion utilizzeranno set di dati di addestramento che consentiranno agli artisti di scegliere se partecipare o meno, una caratteristica che molti artisti hanno richiesto e che potrebbe contribuire a mitigare alcune critiche. “Stiamo cercando di essere super trasparenti mentre miglioriamo i modelli di base e incorporiamo i feedback della comunità”, ha dichiarato Mostaque. The Verge.

Una demo pubblica di Stable Diffusion versione 2 può essere , accessibile qui (anche se, a causa delle elevate richieste degli utenti, il modello potrebbe essere inaccessibile o lento).



Source link